News Im Test vor 15 Jahren: Apples Wechsel von PowerPC zu Intels x86-Prozessoren

AAS schrieb:
Wo ist die Leistung zum iPhone wenn das Ding keinen Kühlkörper drauf hat?
Merkst du wie schwachsinni
Stalin Orgel schrieb:
Ich warte immer noch auf die Benchmarks deiner schnellsten ARM gegen mein Ultra-Mobil Modell!
Der Apple soc hat im iPhone und im ipad einen Kühlkörper. Der aktuelle soc verbraucht im ipad auch grob 15W. Damit erreicht das gerät 40000 Punkte im 3d Mark unlimited Physics. Im gleichen test erreicht AMDs 4700u 68000 Punkte, allerdings bei 25W. Auch AMD ist bei 15W aber deutlich effizienter und verliert kaum Leistung.
Der Benchmark ist aber auch nicht direkt vergleichbar und nutzt nicht die Vorteile der dicken x86 cpus.
Da, wo Leistung gebraucht wird, kann avx genutzt werden und damit ziehen die x86 CPUs davon. Videobearbeitung wird auf Apples soc ewig brauchen. Daher werden sie wahrscheinlich einen Hardware Encoder einbauen.
Aber wir müssen einfach warten bis wir den gleichen Export aus Photoshop oder Premiere von einem arm und einem x86 gerät machen können.

Ich glaube aber ehrlich gesagt, dass sich die Teile fast nichts geben werden. Wenn man arm aufpumpt, damit der mit x86 mithalten kann, verbraucht man genauso viel Strom. Umgekehrt hat Intel mit ihrem 5 Kern soc einen sehr effizienten chip (trotz 10nm Fertigung) mit wenig Leistung. Das aber nur ohne HT und avx.
Apple macht das nur zur Gewinnmaximierung, was vernünftig ist. Denn wenn man sowieso selbst CPUs produziert, dann kann man auch noch ein paar Kerne mehr einbauen und 256bit Funktionseinheiten einbauen und selbst den Gewinn behalten.
 
ThePlayer schrieb:
Also das was Apple von Intel an CPUs abnimmt ist nur ein Tropfen auf dem heißen Stein. Da brauchst du dir keine Sorgen wegen x86 machen.

Wenn ich ehrlich bin, ist Apple so etwas wie ein Benchmark.

Im positiven wie im negativen.

Der durchschnittliche User mit ein wenig mehr Asche auf der Tasche als der "Normalo" (beide sind weit weg von "wichtig") hat halt Apple für sich als Merkmal entdeckt um zu zeigen, "wer sie sind" und hier ist aktuell das Problem für die "alte" Architektur. ← schwerer Satz

Wo die Reise hin geht kann keiner sagen, zum jetzigen Zeitpunkt ist die x86 Architektur aber in etwa genauso gefährdet, wie Verbrennungsmotoren.

Wer die Gefahren nicht sieht, hängt evtl. einfach nur zu sehr in der Materie fest.

Benji18 schrieb:
wer weiß vielleicht wechseln Sie ja zu AMD wie bei den GPUs auch und bekommen einen custom soc ^^


Nein, nein und noch einmal nein.

Auch wenn ich AMD sehr mag, hier haben sie nichts, aber absolut nichts im Angebot.

mfg


Stalin Orgel schrieb:
Hörst dich eigentlich selbst mal reden? :freak:


Bitte schreibe mich doch einfach mit einer PM an, da ich in diesem Falle echt interessiert bin, was du so zu sagen hast.

Über die Unsinnigkeit deiner Frage in einem Forum zu spekulieren würde hier genauso zu irgend etwas führen (nichts) , wie dir zu erklären, dass wenn ich hier etwas schreibe, es sogar noch mehr durch mein "Gehirn" gewandert ist, als wenn ich reden würde.

Ich bin kein Kind einer Zeit, das erst postet und dann denkt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: linuxxer, Boa-P und NDschambar
@Robert Ich liebe Mac-Retronews! Vielen Dank, gerne mehr davon!

Zum Thema: Wenn das neue Lakefieldkonzept nicht aufgeht, hat x86 eine düstere Zukunft. Da wird viel zuviel Legacyballast mitgeschleppt, um Kompatibilität zu Uralt-Soft und Hardware zu erhalten.

Ich muss sagen, dass ich Apples Entscheidungen der Vergangenheit, rigoros Zöpfe abzuschneiden, nicht immer gut fand. Aber im Bereich CPU-Architektur ist es höchste Zeit, alten Ballast loszuwerden.

Allein schon im Sinne sparsamerer, kleinerer und damit günstigerer CPUs mit gleicher oder höherer Performance. ARM hat da schon einiges richtig gemacht und Apple mit seinen Axx CPUs gezeigt, was man da rausholen kann.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
@Stalin Orgel
Dein "Ultra-Mobil" ist einen Hauch schneller single-core und etwa ⅓ schneller multi-core als ein A12X. Natürlich ist er dabei nicht passiv gekühlt, er ist aber auch dafür nicht entworfen worden, der A12X hingegen schon. Allerdings enthält der A12X deshalb ja auch nur 4 große Cores und 4 "Effizienz"-Cores.

Verschiedene Einsatzgebiete führen zu unterschiedlicher Ausprägung im Chip-Design – wie überraschend!

Ansonsten: Nomen est Omen, so wie Du um Dich ballerst.
 
  • Gefällt mir
Reaktionen: Pratiwin
Weil ja auch überall der A12X verbaut wird, der dennoch langsamer ist, lol
In der Regel ist der Unterschied Welten. Schau doch die anderen ARM Chips.
Apple verbaut in viele Geräte alte Chips.
 
[wege]mini schrieb:
Wo die Reise hin geht kann keiner sagen, zum jetzigen Zeitpunkt ist die x86 Architektur aber in etwa genauso gefährdet, wie Verbrennungsmotoren.

Von der Hardwareseite sehe ich da kaum ein Risiko.

Wie schon vorher geschrieben, der Großteil der Funktionseinheiten in modernen CPUs ist sowieso architekturunabhängig. Egal mit welcher Art von Befehlen die CPU nach außen hin arbeitet, intern sind sie sich sehr ähnlich. Deshalb sehe ich wenig Chancen, dass eine andere Architektur x86 wesentlich überlegen sein könnte.

Ich sehe zwei wesentliche Gründe, warum x86 trotzdem verschwinden könnte:

1. Alle relevante Software wird ebenfalls komplett architekturunabhängig. Die Software merkt gar nicht mehr, auf was für einer Hardware (und welchem OS) sie läuft und dem Entwickler kann es egal sein, für was er entwickelt.
Das wäre z.B. der Fall, wenn alle Software in Zukunft auf sowas wie Java laufen würde. (Als Mitte der 90er der Siegeszug von Java begann, haben damals auch einige gleich die Totenglocken für x86-PCs geläutet.)

2. Intel macht es mit seiner Preis- und Lizenzpolitik für alle unwirtschaftlich, weiterhin auf x86 zu setzen. Dadurch entsteht genug Leidensdruck, dass die Industrie die Nachteile eines Architekturwechsels in Kauf nimmt.

Wenn nichts von dem beiden passiert, würde ich sagen, dass es weiter so läuft wie in den letzten Jahrzehnten und x86 durch die schiere Trägheit des Marktes weiterhin dominiert.
Es gehört eine Menge dazu, einen Platzhirsch vom Thron zu stoßen.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen, Kuomo, konkretor und eine weitere Person
Stalin Orgel schrieb:
Apple verbaut in viele Geräte alte Chips.

Apple verbaut das, was zu dem Zeitpunkt gut für ihr Produkt ist.

Sie verkaufen halt Chips für einen Aufpreis, der wäre vor 20 Jahren undenkbar gewesen und alle sind dankbar. Das Ökosystem Apple ist halt tatsächlich Geld wert, obwohl es eigentlich von Taschenrechnern gestemmt werden kann.

Beim CPU Markt ist eine Entwicklung denkbar, die damals mit den Pferden und den Kühen zu vergleichen ist. Beide ziehen einen Pflug aber Pferde sind nur semi geil

Damit kann man gut Krieg machen, für produktive Arbeiten sind Rindviecher besser.

Bitte nicht falsch verstehen, ein ARM ist kein Rindvieh, ein schöner "Araber" wird es aber nie werden, wenn wir bei Nutztieren bleiben.

mfg

Herdware schrieb:
Es gehört eine Menge dazu, einen Platzhirsch vom Thron zu stoßen.

Word!

Hier muss man aber immer erklären, warum selten genutzte Dinge (ein großes Geweih) dann auch richtig toll sind für Endanwender. AVX ist zwar schön, aber auch selten in Verwendung, als Beispiel.
 
  • Gefällt mir
Reaktionen: medsommer
Ich setze große Hoffnungen in die ARM Architektur und bin mal gespannt, ob sie die x86 Architektur, die viel Ballast mit sich herumschleppt, ablösen wird.
Intel wird diesen Schritt sicher mitgehen können, bei AMD bin ich da eher skeptisch.
 
DavidG schrieb:
Intel wird diesen Schritt sicher mitgehen können, bei AMD bin ich da eher skeptisch.

Wenn man Chips wirklich sinnvoll stapeln will, muss man mehrere unabhängig von einander arbeitende MMU´s verbauen und damit ist der Weg zu Harvard nicht mehr weit.

Wie sich die ollen CPUs dann am Ende "anmelden" ist total egal. Welche Befehlsregister sie unterstützen ist erheblich.

Am Ende möchte ich den goldenen Mittelweg aus allen Welten und wir sind auf einem guten Weg.

Aktuelle CPUs sind quasi RISC, arbeiten aber sehr häufig als x86.

So doof es klingen mag, x86 hat durchaus mehr Vorteile, als Nachteile.

mfg

p.s.

alle "arbeiten" an der "Zukunft"
 
  • Gefällt mir
Reaktionen: medsommer und DavidG
@ThePegasus1979 Wow hätte nicht gedacht das sie für 4% Umsatz und 6% Gewinn sorgen.
Aber dann kann an der Nr. 4 mit den 12% im PC Markt etwas nicht stimmen.

@[wegw]mini ich sehe da sowas wie RISC-V als gefahr für Intel und AMD.
ARM können beide Lizenzieren.
Leistung wird man immer brauchen, und das ist etwas was ARM nicht kann.
Auch wenn vielen Leuten ein ARM im Handy, Tablet oder einsteiger Notebook reichen wird.
Aber dann muss da auch noch M$ mitspielen, denn ohne Software nützt mir auch der beste ARM nichts.

@AlphaKaninchen Tja wenn RISC-V zu komplex wird könnte man es Forken in Mobile, Desktop und HPC und Server.
 
ThePlayer schrieb:
ich sehe da sowas wie RISC-V als gefahr für Intel und AMD.
ARM können beide Lizenzieren.
RISC-V wird eher ARM Marktanteile wegschnappen und zwar vor allem im embedded Bereich, weil es lizenzkostenfrei ist. RISC-V Prozessoren, die leistungsmäßig in der Lage sind mit Intel oder AMD im PC-Bereich zu konkurrieren sind noch in weiter Ferne. Da ist ARM wesentlich näher dran.
 
  • Gefällt mir
Reaktionen: BachUhr, AlphaKaninchen und konkretor
DavidG schrieb:
...ob sie die x86 Architektur, die viel Ballast mit sich herumschleppt, ablösen wird....

Es gab einen interessanten, alten Artikel auf Anandtech, über den damals neuen Athlon 64 von AMD. Darin fragte der Autor den damaligen Chefentwickler von AMD, warum sie bei der Gelegenheit nicht gleich die ganzen x86-Altlasten über Bord geworfen hatten. Die Antwort war, dass der Teil der CPU, der für die x86-Kompatibilität verantwortlich war, der x86-Decoder, damals ca. 10% der Chipfläche ausmachte und der Anteil bei zukünftigen CPUs nur immer weiter schrumpfen würde. (Der K8-Athlon64 hatte etwas über 100 Millionen Transistoren, ein Ryzen 5 3600 Epyc hat insgesamt ca. 40 Milliarden.)

Angesichts dessen war es AMD einfach nicht wert, die Kompatibilität zu opfern.
Sie wären damit wohl auch auf die Nase gefallen, so wie Intel mit ihrem Itanium und davor auch schon mit diversen, nicht x86-kompatiblen RISC-CPUs.
Mit dem i860 hatte Intel z.B. schon 1989 einen 64Bit-RISC-Prozessor im Angebot, aber der hatte mangels Kompatibilität keine Chance, das etablierte x86 im PC-Bereich abzulösen.
(Immerhin war Microsoft vom i860 so begeistert, dass sie ihr neues, professionelles Betriebssystem ursprünglich dafür entwickelt haben. Das "NT" in Windows NT stand ursprünglich für "N-Ten" oder "N-10", was die Bezeichnung für die ersten i860-CPUs und der entsprechenden Emulationsumgebung war, in der die erste Win NT-Version entwickelt wurde. 🙂 )

Ich denke nicht, dass sich an diesem Zustand grundsätzlich etwas geändert hat. Es gibt nicht viele Altlasten in modernen x86-CPUs. Solange bestehende Software nicht plattformunabhängig ist, lohnt es sich nicht, eine "popelige" Millionen Transistoren einzusparen, indem man x86-Kompatibilität opfert. Jedenfalls nicht bei großen Desktop-CPUs.

Hier ist ein Link zu einem etwas "neueren" Anandtech-Artikel über den Intel-Atom, der auf das angesprochene AMD-Interview Bezug nimmt: https://www.anandtech.com/show/2493/3
Zugegeben, den in diesem Artikel vorhergesagten x86-Siegeszug bei Smartphones hat es nicht gegeben, aber ich denke, für den PC-Bereich gilt die Aussage weiterhin.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kuomo, NDschambar, DavidG und 2 andere
Hat auch einen Vorteil für Uns das Apple zu Intel gewechselt ist. Man kann die Preise besser einordnen. Man muß schon ein ziemlicher MAC Fan sein um die Preise für die Hardware zu zahlen.
 
Interessanter Rück-, aber auch Ausblick!
Danke für den schönen Artikel.
 
[wege]mini schrieb:
Der durchschnittliche User mit ein wenig mehr Asche auf der Tasche als der "Normalo" (beide sind weit weg von "wichtig") hat halt Apple für sich als Merkmal entdeckt um zu zeigen, "wer sie sind" ...
Das ist immer der gleiche Quatsch. Er wird aber durch Wiederholung nicht richtiger.

Die meisten Leute mit einem mittelmäßigen Mac, kaufen ihn, weil er Einfachheit im Umgang verspricht. Die meisten 'Normalos mit ein wenig mehr Asche' geben mit ihrem Mac nicht an, sondern entschuldigen sich permanent, dass mehr als 512GB SSD oder 8GB RAM halt 'doch etwas teuer gewesen wären' - und bereut, dass man nicht doch die 1TB Version genommen hat. Damit aber zeigt man sicher nicht, 'wer man ist', sondern eher, was man halt doch nicht ist ...
Wiederum die Leute, die sich einen MacPro kaufen oder ein MBP mit 8TB SSD, haben das Angeben mit einem teuren Computer einfach nicht nötig.

Kleiner Tip: es gibt eine prinzipiell falsche Annahme bei 'Normalos mit weniger Asche', wenn sie sehen, dass sich 'Wohlhabendere' irgendwas kaufen, das sie vielleicht nicht unbedingt brauchen, oder voll nutzen. Top ausgestattetes MBP, die beste Spiegelreflex fürn Urlaub, Flasche Wein für 100€ etc. sind für die meisten nichts zum Angeben. Aber der Preis ist schlicht egal, weil er nicht weh tut. Warum denn einschränken, wenns im Budget liegt?

Aber nochmal Topic: vermutlich werden die obigen Käufer mit ARM im Mac gut leben können. 90% dessen, was die mit dem Mac machen, ist vorinstalliert. Für die Kreativen wiederum wird man Adobe & Co. schon im Boot haben, schnell native Anwendungen zur Verfügung zu stellen. Ich schätze Photoshop & Co. ist von Anfang an mit von der Partie.
 
  • Gefällt mir
Reaktionen: BachUhr
Picard87 schrieb:
Nicht die Menge macht das Geschäft, sondern die Marge, und die ist hoch bei Apple, weil Apple das voll an die Kunden weitergeben kann bzw konnte.
Davon hat aber Intel nichts. Die ganzen i3, etc kauft Apple deswegen trotzdem nicht extra teuer ein. Das Endprodukt hat Marge, nicht die Zulieferer … mehr als Dell wird Apple wohl aber trotzdem zahlen, immerhin gibt es ja keine mir bekannten Lieferengpässe bei Apple Systemen. ;-)

Aber Dell will die CPUs ja auch am liebsten umsonst oder zumindest mit einem 9 Stelligen Zuschuss von Intel. Zumindest das scheint es bei Apple nicht zu geben, die wollen sich wohl nicht so sehr an Intel binden. ;-)
Ergänzung ()

Klassikfan schrieb:
Dennoch ist Apple für Intel extrem prestige-trächtig.
Mit Prestige kann man keine Dividenden auszahlen. Entwickler scheinbar schon, wenn es nach Blizzard geht, aber eben keine Dividenden.
Ergänzung ()

maxpayne80 schrieb:
Mittlerweile sind Intel-CPUs aber merklich an einer Grenze, in meinem MBPro 2018 mit i9 wird deutlich, dass Apple in nicht allzuferner Zukunft mit der offensichtlichen Frage konfrontiert wird, ob es Zeit für die nächste "Transition" ist - in jedem Fall weg von Intel, wenn die nicht absehbar einen Nachfolger für die völlig überzüchtete aktuelle Generation liefern.
Mit Renoir hat AMD eigentlich sehr gut gezeigt, das sie die viel bessere Wahl als Intel oder auch ARM sind. Die sind halt einfach mal bequem zweimal so schnell wie Intel, super-effizient obendrauf und ein scheinbar auch ein verlässlicher Partner den über die Zusammenarbeit mit den GPUs hätte ich jetzt auch noch nicht von Reibereien zwischen den beiden Firmen gehört.

Und Gaming war bei Apple eh schon immer Stiefkind.
 
Zuletzt bearbeitet:
Herdware schrieb:
(Immerhin war Microsoft vom i860 so begeistert, dass sie ihr neues, professionelles Betriebssystem ursprünglich dafür entwickelt haben. Das "NT" in Windows NT stand ursprünglich für "N-Ten" oder "N-10", was die Bezeichnung für die ersten i860-CPUs und der entsprechenden Emulationsumgebung war, in der die erste Win NT-Version entwickelt wurde. 🙂 )
Wobei ich bis Heute nicht verstehe, wie IBM bei dieser ursprünglichen (Projekt-) Bezeichnung mitgemacht hat (wurde später aus Marketing Gründen in "New Technology" umgedeutet), schließlich hatte IBM ja selber damals PowerPC RISC Prozessoren am Start und war bei der Entwicklung zu NT involviert
 
Zurück
Oben