Bericht Im Test vor 15 Jahren: Apples Wechsel von PowerPC zu Intels x86-Prozessoren

catch 22

Lt. Commander
Dabei seit
Mai 2019
Beiträge
1.843
Welch Ideologiegetriebene Aussage, tust mir echt leid
Das hat nichts mit Ideologie zu tun, sondern lediglich mit dem Aspekt, dass man vorher teuer Geld bezahlt hat, um aus Sicht eines Endverbrauchers eine "exotische" CPU (RISC anstelle von CISC) zu bekommen die aber auch schnell war. Nach dem Wechsel auf Intel waren die Systeme erst mal nicht so schnell, aber weiterhin über alle Maße überteuert. Erschwerend kam hinzu, dass die ersten Versionen diversester Anwendungen auch noch relativ instabil (schlechte Portierungen) liefen.

Alles in allem Vergleichbar zu der Einführung von IDE bei MAC Rechnern, die vorher durch die Bank mit SCSI Platten liefen. Wieder wurde, aus Sicht des Endverbrauchers "exotische" Hardware aus dem System genommen, ohne dass sich diese Änderung entsprechend im Preis niederschlug.
Ergänzung ()

Für (Hardware-) Sammler
 

Herdware

Fleet Admiral
Dabei seit
Okt. 2011
Beiträge
15.732
Wobei ich bis Heute nicht verstehe, wie IBM bei dieser ursprünglichen (Projekt-) Bezeichnung mitgemacht hat (wurde später aus Marketing Gründen in "New Technology" umgedeutet), schließlich hatte IBM ja selber damals PowerPC RISC Prozessoren am Start und war bei der Entwicklung zu NT involviert
Mit der Spezifikation für das PowerPC-Design ging es laut Wikipedia 1991 los. Gut möglich, dass zu dem Zeitpunkt die Entwicklung für NT schon wieder weg von i860, hin zu einem plattformunabhägigen System geändert worden war. Es kam ja auch nie ein i860-Windows auf dem Markt.


Bring hier nichts durcheinander, das Ding wäre mit 40 Mrd. verdammt groß und teuer.
Der I/O-Die hat 2,09 Mrd. Transistoren und ein Chiplet 3,9 Mrd.
Du hast recht. Ich habe das durcheinandergebracht. Ich hatte nach der Transistorzahl für Ryzen gegoogelt, aber die Antwort falsch gelesen. 40 Milliarden ist von den Epyc-CPUs.
 

crackett

Lieutenant
Dabei seit
Feb. 2006
Beiträge
886
Der Wechsel auf ARM wird kommen und ich begrüße ihn. Es wird wohl nichts schneller werden, aber es geht ja auch um Neue Plattformübergreifende Kompatibilität...
 

Atent123

Lieutenant
Dabei seit
Aug. 2016
Beiträge
847
Da, wo Leistung gebraucht wird, kann avx genutzt werden und damit ziehen die x86 CPUs davon. Videobearbeitung wird auf Apples soc ewig brauchen. Daher werden sie wahrscheinlich einen Hardware Encoder einbauen.


Ich glaube aber ehrlich gesagt, dass sich die Teile fast nichts geben werden. Wenn man arm aufpumpt, damit der mit x86 mithalten kann, verbraucht man genauso viel Strom. Umgekehrt hat Intel mit ihrem 5 Kern soc einen sehr effizienten chip (trotz 10nm Fertigung) mit wenig Leistung. Das aber nur ohne HT und avx.
Apple macht das nur zur Gewinnmaximierung, was vernünftig ist. Denn wenn man sowieso selbst CPUs produziert, dann kann man auch noch ein paar Kerne mehr einbauen und 256bit Funktionseinheiten einbauen und selbst den Gewinn behalten.
ARM Neon wäre das Gegenstück zu X86 AVX. Dazu sind die aktuellen Performance ARM cores allesamt fähig.
Apples Lightning Kerne haben dafür 3 und die neuen Cortex X 4 x 128 Bit Pipelines, die zusammengeschaltet werden können, um auch 256Bit Neon instructions ausführen zu können.

So ein Ligtning Kern hat darüber hinaus 6 reine ALU pipelines (selbst Sunny Cove hat dafür nur 4) und einen 7 instructions breiten front end decoder (verglichen mit 5 bei Sunny Cove).

Darüber hinaus eine ganze Ecke mehr Cache (128kb L1 vs 48kb bei Sunnycove, 4mb L2 vs 512kb, wobei Sunny Cove dafür 2mb L3 Cache hat).

Das schlägt sich auch im Transistorcount der Kerne wider.

Moderne high Performance ARM Kerne sind groß und breit.
Der IPC dürfte in vielen Anwendungen sogar über dem aktueller X86 CPUs liegen, nur wird man bei der Taktrate wohl nicht wirklich mithalten können. (wobei X86 CPUs einen Vorteil bei der Cache Latenz haben).

https://en.wikichip.org/wiki/intel/microarchitectures/sunny_cove
https://www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/2
https://www.androidauthority.com/arm-cortex-x1-vs-apple-1121289/
https://www.anandtech.com/show/15813/arm-cortex-a78-cortex-x1-cpu-ip-diverging/3
 
Zuletzt bearbeitet:

maxpayne80

Lt. Commander
Dabei seit
Nov. 2006
Beiträge
1.944

MountWalker

Fleet Admiral
Dabei seit
Juni 2004
Beiträge
12.865
...
Gibt es eigentlich noch irgendwelche Systeme die heute auf PowerPC setzen? ...
Klar, gerade jetzt dieses Jahr kommt der IBM Power10 auf den Markt, exklusiv bei Global Foundries in 7 nm (nach Patentlizenzierung von TSMC) gefertigt und wahrscheinlich der Grund, warum Ryzen 4000 und die nächsten Spielekonsolenprozessoren erstmal exklusiv bei TSMC gefertigt werden. Eine neue Power-Generation gibts nur alle 6 Jahre oder so und damit ist Global Foundries als einziger IBM-Vertragsfertiger bis Ende nächsten Jahres bei allem, was sie in 7nm auf die Beine stellen können, voll ausgelastet.

IBM Power sind seit 2005 aber, und deswegen musste Apple damals auch umsteigen, aufs 200-Watt-pro-Sockel-Segment beschränkt. IBM wollte in den ganzen 2000ern schon keine Desktop- und schon gar keine Notebook-Prozessoren bauen. Zum G5 für den PowerMac kam es nur, weil Apple gebettelt hatte, nachdem Freescale (PPC-Designer seit Motorola-Ausstieg bis G4) die Sparte verlassen hatte.

Neben IBMs 200-W-Prozessoren gibts noch viele kleine Controller mit Power-ISA-Chips. Alle Geschäftsfelder, in denen man gelegentlich MIPS oder RISC-V findet, werden auch mit Power bedient. 2005 war der größte Hersteller solcher kleinen Power-Prozessoren mit ca. 1 W und so P.A. Semi, die später von Apple aufgekauft wurden und heute Apples ARM-Sparte bilden.

Seit RISC-V den Marktanteil von Power gefährdet, ist Power übrigens vollständig OpenSource geworden (OpenPower-Projekt) und zu den vielen Unterstützern der OpenPower-Plattform gehört auch Google. Ins Desktop- und Notebook-Segment wird das aber vermutlich nie zurückkehren, weil ARM als Alternative zu populär ist. Man muss auch bedenken, dass die wichtigste Software auf einem Desktop oder Laptop, der Web-Browser, heutzutage immer einen eigenen Compiler enthält (für ECMA/JavaScript) und deswegen ein erfolgreicher Wechsel auf eine andere ISA auch davon abhängt, ob ein Web-Browser-Engine-Macher Bock hat einen JavaScript-JIT-Compiler für diese ISA zu schreiben und zu pflegen. Das war 2005 noch nicht so. (Googles V8 hat es erfunden) Mozilla bietet heute zum Kompilieren auf Plattformen mit von deren JIT-Compiler nicht unterstützter ISA zwar noch einen JavaScript-Interpreter als Fallback an, aber den Slow-Motion-Webseiten-Aufbau will niemand erleben. Ich glaube auf einer aktuellen Webseite würde man sich wie mit einem 56k-Modem vorkommen, wenn man ohne den JIT-Compiler nur mit dem Interpreter surfen würde.

Deswegen, für jede Hochsprachensoftware ab C aufwärts ist zwar Portierung erwartbar, aber ausgerechnet Web-Browser gehören dank JavaScript-JIT-Compiler nicht (mehr) dazu und so werden wir auf absehbare Zeit nichts anderes als X86-64 und ARM haben. Ich bin mal gespannt, wann Mozilla die ersten AMD64-Prozessoren aussortiert; Windows hat das ja schon mit 8.1 getan.
 
Zuletzt bearbeitet:

smalM

Captain
Dabei seit
Aug. 2007
Beiträge
3.687
Und Gaming war bei Apple eh schon immer Stiefkind.
Das ist nicht wahr! Apple und Gaming sind weder verwandt noch verschwägert!

ARM Neon wäre das Gegenstück zu X86 AVX. Dazu sind die aktuellen Performance ARM cores allesamt fähig.
Apples Lightning Kerne haben dafür 3 und die neuen Cortex X 4 x 128 Bit Pipelines, die zusammengeschaltet werden können, um auch 256Bit Neon instructions ausführen zu können.
NEON ist immer und ausschließlich 128bit. Das ist nämlich die Registerbreite und die ist fix (vielleicht verwechselst Du da was mit SVE).
Und dann kommt es nicht nur darauf an, wieviele NEON-Units vorhanden sind, sondern auch, was die alles können. Nicht jede Pipe stellt auch alle Funktionen zur Verfügung.

So ein Ligtning Kern hat darüber hinaus 6 reine ALU pipelines (selbst Sunny Cove hat dafür nur 4) und einen 7 instructions breiten front end decoder (verglichen mit 5 bei Sunny Cove).

Darüber hinaus eine ganze Ecke mehr Cache (128kb L1 vs 48kb bei Sunnycove, 4mb L2 vs 512kb, wobei Sunny Cove dafür 2mb L3 Cache hat).
Im A13 habe die großen Cores 128 KB L1I und 128 KB L1D, der gemeinsame L2 ist 8 MB groß, aber für einen Core scheinen nur 6MB im Zugriff zu sein. Der SoC einen SLC von 16 MB.
Sunny Cove hat 32 KB L1I und 48 KB L1Dm der L2 ist im Gegensatz zum Apple-Core privat, der L3 steht exklusiv nur den CPU-Cores zur Verfügung.

Moderne high Performance ARM Kerne sind groß und breit.
Der IPC dürfte in vielen Anwendungen sogar über dem aktueller X86 CPUs liegen, nur wird man bei der Taktrate wohl nicht wirklich mithalten können. (wobei X86 CPUs einen Vorteil bei der Cache Latenz haben).
Die IPC eines A13-Lightning ist ca. 60% höher als die eines Sunny Cove, die Intel-CPU muß also auf 4,3 GHz getaktet werden um die gleiche Leistung zu bringen.
Die L1-Latenz ist bei Intel tatsächlich deutlich niedriger, aber hier ein kleine Frage: Wieviele Takte braucht jeder der beiden Cores für den Zugriff?
 
Zuletzt bearbeitet:

Matrix316

Lt. Junior Grade
Dabei seit
Apr. 2009
Beiträge
290
Der Wechsel auf ARM wird kommen und ich begrüße ihn. Es wird wohl nichts schneller werden, aber es geht ja auch um Neue Plattformübergreifende Kompatibilität...
Ja ähhh nee. Vielleicht laufen dann mal alle Apple Geräte mit ARM - aber die Apple Welt ist relativ gesehen ziemlich klein. Gerade was richtige Computer betrifft (selbst Apple nennt das iPad im Werbespot "dein nächster Computer ist kein Computer" =)), sind die Macs ein winziger Teil und wenn man jetzt diese von X86 trennt, dann werden die für mich (wieder) und ich denke für viele andere komplett uninteressant.
 

me@home

Cadet 4th Year
Dabei seit
Dez. 2017
Beiträge
108
Ich habe mit dem Mini G4 angefangen, dann iMac mit G5, dann als der Intel Umstieg kam, länger gewartet bis die Preise erschwinglich wurden am Gebrauchtmarkt.
Macbook pro, 2x Mac Pro dann als media Zuspieler den MacMini mit i7 + i5 aber nicht wirklich zufrieden. Die mini's sind / waren immer zu langsam bzw. zu heiß ebenso die Macpro 1.1 - 3.1 dann nur mehr hackintosh.
Bis vor 1/ 2 Jahr noch, aber jetzt gefällt mir Win10 mehr, einfach schon die Aufrüstungsmöglichkeit und die Preise!

Ich freue mich, dass Apple aus dem x86 CPU Bereich aussteigt, weil so gibt's mehr Innovationen und Druck auf Intel (+ AMD).
 

andi_sco

Rear Admiral
Dabei seit
Jan. 2018
Beiträge
5.421

Pr0krastinat0r

Lt. Commander
Dabei seit
Feb. 2007
Beiträge
1.900
Apple stieg damals noch stärker in den mobilen Computermarkt (Notebooks) ein und diese konnten schlicht nicht auf IBMs energiehungriger, ineffizienter und damit sehr heiß werdenden CPUs laufen.

Intel konnte dagegen effiziente, sparsame und dennoch leistungsfähige x86 CPUs liefern. Übrigens hätte AMD fast das rennen gemacht und Intel hatte Steve Jobs Anfragen abgelehnt, spezielle CPUs für Apple zu entwickeln. Und AMD konnte damals wesentlich effizientere CPUs für den mobilen Markt liefern. Allerdings war Intel dazu bereit, Apple mit den neuen Core-CPUs experimentieren zu lassen, welche Apple und Steve Jobs überzeugten.
 

smalM

Captain
Dabei seit
Aug. 2007
Beiträge
3.687
Gerade was richtige Computer betrifft, sind die Macs ein winziger Teil und wenn man jetzt diese von X86 trennt, dann werden die für mich (wieder) und ich denke für viele andere komplett uninteressant.
Ungefähr auf 2% der Macs läuft Windows.
Das geht Apple völlig am Allerwertesten vorbei und über kurz oder lang wird es auch den anderen 98% der Mac-Besitzer egal sein, daß dann keine Intel-CPU mehr in ihrem neuen Mac steckt.
 

Topflappen

Lieutenant
Dabei seit
März 2011
Beiträge
681
The art of keynote. Wenn man diesem Messias zusieht wie der damals sich und seine Produkte präsentiert hat, weiß man auch warum der Abtritt von ihm so schmerzlich war.
 

cob

Captain
Dabei seit
Mai 2007
Beiträge
3.582
Schon komisch, noch nie ein EI-Phone gekauft.
Dafür aber 100 fach in die Aktie investiert :)
Wenn ich irgendwann eine Million damit gemacht habe, sollte ich mir tatsächlich ein Apple Produkt kaufen (vielleicht^^) Ich will ja Geld verdienen und keine Melkkuh sein... :)
 

andr_gin

Commander
Dabei seit
Jan. 2004
Beiträge
2.053
Man sollte Apple nicht unterschätzen. Leider gibt es nicht allzu viele plattformübergreifende Benchmarks aber die SPEC06 Ergebnisse sind beim A13 echt beeindruckend, wenn man die Single Core Leistung betrachtet: https://www.mactechnews.de/news/art...teigt-im-Vergleich-zum-Vorgaenger-173581.html

Hier fehlt echt nicht mehr viel auf den 9900K und das ist eine High End Desktop CPU. Würde Apple eine CPU mit 8 Big Cores auflegen, so hätten sie sofort eine konkurrenzfähige Desktop CPU und immer noch mehr als genug Luft bei der Leistungsausnahme.

Ich denke auch, dass der ARM Befehlssatz mittlerweile deutlich im Vorteil ist. Man muss sich nur einmal ansehen zu welcher Zeit der x86 Befehlssatz entwickelt wurde. Der 80386 hatte weniger als 300K Transistoren.
 

mkossmann

Lieutenant
Dabei seit
Dez. 2015
Beiträge
950
Ich denke auch, dass der ARM Befehlssatz mittlerweile deutlich im Vorteil ist.
Ich denke die Befehlssätze spielen heute keine so große Rolle mehr. RISC wurde entwickelt weil die damaligen Compiler nicht besonders gut mit den älteren, auf Programmierung in Assembler optimierten CISC Befehlssätze zurechtkamen, die besonders schnelle Funktionen oft nur für einzelne Register angeboten haben. Compiler sind aber einfacher zu bauen,wenn alle Register die gleichen Funktionen anbieten.
Das ist aus folgenden Gründen heutzutage aber nicht mehr so relevant:
Beim Aufbohren von x86 auf 32bit und 64bit wurden neue, universell nutzbare Register hinzugefügt.
Dadurch das inzwischen viel mehr Ressourcen in Form vom RAM und Rechenleistung zur Verfügung steht können Compiler inzwischen auch auf die Spezialfunktionen eines CISC Befehlssatzes optimieren.
Z.B. in C: Früher hat es einen Unterschied gemacht ob man i = i+1; oder i++; im Code geschrieben hat, da letzteres auf die schnellere Increment-Funktion eines Prozessors umgesetzt wurde, ersteres aber als normale Addition gehandelt wurde. Moderne Compiler machen daraus den gleichen Machinencode.
Und wie in anderen Posts schon gesagt wurde: x86 sind intern inzwischen auch RISC-Prozessoren mit einer vorgeschalteten Übersezungseinheit für x86 Code.
 

smalM

Captain
Dabei seit
Aug. 2007
Beiträge
3.687
@Qarrr³
ARMv8-A ist von 2011, gewonnen! :D
Und bei Intel müßte es eigentlich 1974 heißen, denn x86 gründet auf dem 8080.

@andr_gin
Durch den x86-Befehlssatz sind die Befehlsdecoder in x86-CPUs viel aufwendiger, während die in ARM-CPUs das Allermeiste einfach nur durchwinken können, aber abgesehen davon sind die Cores inzwischen mehr oder weniger gleich komplex, da Arm sich weg von "klein und billig" entwickelt hat.
Apple hatte 2013 mit ihren massiven Cores diese Entwicklung vorweggenommen, aber Apple verkauft auch keine Chips an Hersteller mit dünnen Margen und hat so nicht Die-Fläche gegen Performance abwägen müssen.

@mkossmann
Die Compiler optimieren x86-Code heutzutage dadurch, daß sie den Befehlssatz möglichst RISC-artig nutzen und die komplizierten Op-Codes, die dann in den Decodern aufwendig aufgespalten werden müssen, lieber meiden. Ein großes Ziel von CISC war es ja RAM zu sparen und die Anzahl der Speicherzugriffe zu reduzieren. Beides ist für Programmcode heutzutage nicht mehr wirklich wichtig.
Die Anzahl der Register des Programmiermodells ist inzwischen übrigens auch eher irrelevant, da die Cores Dutzende Schattenregister benutzen und die nach Bedarf einsetzen können.
 
Zuletzt bearbeitet:
Top