News Apple Silicon „M2“: Die nächsten M-SoC sollen bis zu 32+8+128 Kerne besitzen

nagus schrieb:
WOW wie toll. 32+8 Threads in 2022 für eine PRO Workstation. AMD hat seit 2020 schon 128 Threads. IN 2022 hat AMD wahrscheinlich sogar schon 192 ... ZEN4 Threads
Die können auch dröflmillionen haben, oder apple kann dröfmillionnen haben. Es kommt nur darauf an, was hinten raus kommt. Ich kaufe doch nicht nach Threads/Kerne, sondern nach Leistung, Preis und eventuell wie viel Saft das Ding zieht.
 
  • Gefällt mir
Reaktionen: mcasd, retireduser, ###Zaunpfahl### und 2 andere
cruse schrieb:
Und die werden alle auf einem Laptop kompiliert?
Natürlich compiliert man die erstmal auf der Workstation. Klar, der master branch wird per CI gebaut, aber lokales zeug willst du "einfach mal schnell" bauen um testen zu können. Da wartet keiner auf die Pipeline.
 
  • Gefällt mir
Reaktionen: Kalsarikännit
Magellan schrieb:
Die Frage stellt sich dann was sie denn die letzten Jahre daran gehindert hat - es wird ja nicht daran liegen dass Apple als einzige auf die Idee kamen eine CPU zu bauen die gleichermaßen stark und effizient ist.

Was sehr kleine, sparsame CPUs angeht (Smartphones usw.), könnte der komplexere x86-Decoder an sich sogar einen wesentlichen Unterschied bei der Effizienz ausmachen. Dieser Vorteil von ARM sollte eigentlich immer irrelevanter werden, je größer und stromhungriger die CPU an sich wird.

Ich gebe ehrlich zu, dass ich deswegen überrascht war, wie gut der M1 skaliert und mit x86ern der "Notebook-Klasse" mithalten kann bzw. sie übertrifft.

Wie gesagt, ich vermute, dass Intel und AMD, die sich im PC-CPU-Markt seit langer Zeit nur aneinander messen mussten, vielleicht wegen fehlender Konkurrenz etwas "eingeschlafen" sind. Das doch noch viel Optimierungspotential in x86-CPUs steckt, zeigte AMD aber zuletzt ganz gut mit den diversen Zen-Generationen.

Ein anderer Faktor, der Intel und AMD zurückgehalten haben könnte, ist deren Ansatz, einen möglichst großen Teil der PC-, Workstation- und Server-Märkte mit "Universal-CPUs" von der Stange zu bedienen. Es gab zwar immer wieder Ansätze, vor allem von AMD, auch kundenspezifische Sonderlösungen anzubieten, aber so flexibel aus spezifische Anforderungen zugeschnittene SoCs, wie man sie sich z.B. auf ARM-Basis jeder selbst zusammenstellen kann, sind mit x86 in der Regel nicht zu bekommen.

Ein Teil der überzeugenden Leistung von Apples M1 könnte also schon daher kommen, dass er genau auf das zugeschnitten ist, was Apple für diese Macs braucht. Die Intel-basierten Macs mussten mit CPUs auskommen, die mehr oder weniger "von der Stange" sind.
 
Zuletzt bearbeitet:
conspectumortis schrieb:
Die können auch dröflmillionen haben, oder apple kann dröfmillionnen haben. Es kommt nur darauf an, was hinten raus kommt.

Genau das ist der Punkt. Anhand der Kerne kann man doch null ablesen. Zeigt ja der M1 heute schon und das haben auch die Apple A Chips der letzten Jahre gezeigt. Wichtig ist was dabei rauskommt und nicht was auf dem Papier steht.

Nachdem ich beim M1 recht skeptisch war, finde ich die gelieferte Leistung wirklich beeindruckend. Ich bin gespannt, was die nächsten Chips so können. Neue Einflüsse im Hardwaremarkt sind immer gerne gesehen. Apple hat hier definitiv einiges an Knowhow vorzuweisen und Geld für die Entwicklung ist auch kein großes Thema. Hinzu kommt die Vorzugsposition bei TSMC was die neusten Fertigungsverfahren angeht. Ich bin gespannt mehr zu sehen und dann mal schauen welchen Einfluss das ganze dann auf den restlichen Markt hat oder auch nicht.
 
Die kerne haben weiterhin kein HT oder?

Auch versteh ich nicht ganz bei 8+2 was nun die kleinen und was die großen kerne sind.

Der Vergleich zu alder Lake ist hier sicherlich spannend, kommt aber wie immer auf die benches an. Apple kann sich jetzt hinstellen und sagen "hihihi schneller als intel!" Aber halt nur in ihrer blase mit Alten Chips als einzige Vergleichsbasis.

Da wird's dann mit der real World Performance auch wieder etwas enger ;)

Fakt ist innerhalb ihrer Blase können sie solide Chips bauen, dem Rest des Marktes nutzt es reichlich wenig und bis 2022 die ganz große CPU kommt würde ich erstmal noch etwas warten.

Zumal dann auch unklar ist wie die Performance tatsächlich den Wahrscheinlich lächerlichen Preis und den Begrenzungen beim IO und RAM rechtfertigen wird können.

Zu dem Zeitpunkt ist dann auch Zen4 und Meteor Lake auf dem Markt und in Reichweite.

Ich sehe sie aufgrund des wahrscheinlich fehlenden HTs und einem gesunden IPC Zuwachs gegenüber des M1 in einer soliden Position, aber nirgendwo absolut vorne und da es sie nicht auf dem freien Markt gibt sind sie abseits vom Apple Kosmos sowieso nicht zu bekommen und stehen deshalb ein wenig abseits.

Schließlich sind x86 Chips auch extrem effizient wenn es sie dann auch in 5nm gibt. Die Effizienzvorteile aktuell ziehen sich ja auch zu großen Teilen aus der Fertigung.
 
Chesterfield schrieb:
Gefühlt hat der Gebrauchtmarkt durch die neuen M CPUs, prrislich für die Intel macs erhelblich federn gelassen (leider).
Daher werde ich meinen vorerst behalten und tatsächlich beim M2 erst einsteigen und erneuern 😀. Glaube auch dann wird man einen „Zuwachs“ an Leistung erst so richtig spüren

ich bin vom MacBook Air 2013 auf das MacBook Air M1 gewechselt. Das hatte sich schon wirklich gelohnt.😝
Mein altes behalte ich für Windows / Linux.
 
nagus schrieb:
AMD hat seit 2020 schon 128 Threads.

Zu einem Preis von ca. 6000€ für die CPU alleine und mit einer Geringeren Single Core Leistung und einer Deutlich höheren Leistungsaufnahme ( 225 Watt ) als der M1 ( 30 Watt ) bzw. zukünftigen M SOC´s.

Die X86 Architektur lebt eigentlich nur wegen des Spielemarktes und den Konsolen.

Spätesten wenn die ersten ARM Mac Pros da sind und mit Ihrer Leistung überzeugen werden viele Firmen wie z.b. Sony darüber nachdenken ob sie für Ihre Zukünftige Konsolen Plattform auf eine ARM Architektur setzen werden oder nicht.

Vielleicht denken Sie jetzt schon darüber nach ;)

Eine Spielekonsole mit der Leistung einer PS5 aber so kompakt wie eine PS-One würde mir sehr gefallen.
 
  • Gefällt mir
Reaktionen: conspectumortis
@Herdware Halte ich für relativ unwahrscheinlich dass Apple die x86 Konkurrenz dann direkt mit dem Erstlingswerk derart pulverisiert hätte und die haben ja sicher selbst noch genug Optimierungspotential.

Dazu kommt wie gesagt dass die ARM Konkurrenz ja in sämtlichen Bereichen angreift - AWS auf Graviton2 ist jetzt offenbar schon effizienter und grünstiger als auf x86 und Graviton 3 steht schon vor der Tür.
Diverse chinesische Hersteller arbeiten auch an ARM Server CPUs.
MS entwickelt ARM Cpus für seine Cloud genauso wie für Surface usw.
Den Mobile Markt hat ARM ja eh komplett in der Hand.
Der wachsende Fahrzeugmarkt nutzt auch ARM.
Nvidia als großer Player mischt auch in immer mehr Bereichen mit ARM CPUs mit.

Imho ist das ein Sturm der nicht mehr aufzuhalten ist.
 
Zuletzt bearbeitet:
Magellan schrieb:
Halte ich für relativ unwahrscheinlich dass Apple die x86 Konkurrenz dann direkt mit dem Erstlingswerk derart pulverisiert
haben sie doch schon mit dem M1

die anderen arm cpu/soc hersteller sind noch meilenweit von apple entfernt.
die chinesen sind cpu technisch noch entwicklungsland, holen aber ganz gut auf
 
  • Gefällt mir
Reaktionen: Kalsarikännit, Suchtbolzen und Darkseth88
Magellan schrieb:
Halte ich für relativ unwahrscheinlich dass Apple die x86 Konkurrenz dann direkt mit dem Erstlingswerk derart pulverisiert ...

Wie gesagt, ich bin positiv überrascht, wie sich Apples M1 schlägt, aber von Pulverisieren würde ich nicht unbedingt sprechen, denn wir haben ja nur den direkten Vergleich von M1 und älteren Intel-Macs, in denen noch auf 14nm (ursprünglich von 2014) gefertigte CPUs stecken, die weitgehend auf Skylake-Architektur (von 2015) basieren. (Wie gesagt, da herrschte besonders bei Intel zuletzt eine Art "Ausruhen".) Das verzerrt das Bild etwas.
Gegen aktuelle Zen3-CPUs in 7nm sähe M1 wohl immer noch gut aus, aber nicht unbedingt völlig deklassierend.

Wie es mit M2 und folgenden, größeren SoCs aussiehen wird, werden wir sehen. Ich erwarte gutes und ich bin überzeugt, dass Apples Entscheidung auf ARM zu wechseln richtig war. Allein schon, weil sie ihre Systeme jetzt komplett maßschneidern können.
Aber ich sehe x86 jetzt auch nicht spontan von allen Märkten verschwinden. Ich glaube eher nicht, dass die ARM-Archtektur grundsätzlich so überlegen ist, dass x86 in allen Bereichen chancenlos ist.

Wie gesagt, könnte es ähnlich werden, wie damals zu Zeiten der Unix-Workstations mit ihren MIPS, ALPHA usw.
Für ihren Anwendungsbereich werden die kommenden, ARM-basierten Apple-Workstations (mobil und stationär) ihre klaren Vorzüge haben, aber deswegen wird der restliche x86-PC-Markt nicht über den Haufen geworfen. Das sind einfach verschiedene Ligen.
 
  • Gefällt mir
Reaktionen: Qyxes und chartmix
Herdware schrieb:
Aber ich sehe x86 jetzt auch nicht spontan von allen Märkten verschwinden. Ich glaube eher nicht, dass die ARM-Archtektur grundsätzlich so überlegen ist, dass x86 in allen Bereichen chancenlos ist.
Nunja aktuell hält ARM den größten Markt (Mobile), sowie Fahrzeuge und IoT fest in Händen.
Rechenzentren verschiebt sich bereits da ist der Weg imho absehbar.
Apple ist komplett übergelaufen (oder noch dabei).
Bleiben Windows Notebooks und Desktops / Workstations als letzte x86 Bastion welche durch Apples erfolgreiches Vorbild sowie die Bestrebungen von MS stark in Bedrängnis geraten dürfte.

Allein mit Apple, Amazon, Microsoft, Google und Nvidia steht schon eine immens größere Marktmacht hinter ARM als Intel und AMD bei x86.

Selbst wenn ARM nicht rein technisch überlegen wäre dürfte dieser ungleiche Kampf ziemlich eindeutig enden.

In 5, vielleicht auch erst in 10 Jahren schätze ich, dass ARM auch den Windows und Server Markt dominiert.
 
Dann werden sich die M3-M5 Modelle ja richtig gut verkaufen... wenn ihr versteht :D
 
v_ossi schrieb:
Fairerweise sollte man Intel (trotz aller Versäumnisse: und das sind viele und bisweilen recht offensichtliche) zugestehen, dass es bedeutend mehr Produkte im Protfolio hat und es entsprechend schwerer ist, so dermaßen effizient zu arbeiten wie Apple.
Das ist aber nichts positives, sondern negatives. Intel stellt im Microcode 100 Mhz mehr Turbo ein, und verkauft das dann als komplett neues Produkt mit eigener Bezeichnung.
Das ist fast schlimmer als Xiaomi, die jeden Monat 20 Smartphones rausbringen, statt ein gutes pro Preisklasse im Jahr und sich darauf konzentrieren.
Sind die also selbst schuld, wenn die sich so unnötig viel Arbeit machen.. Alleine Tiger Lake hätte man in eine hand voll Modelle aufteilen können und das hätte mehr als gereicht. Oder noch weniger, weil die Leistung ja dann mittels TDP-Konfiguration unterschieden werden könnte.

nagus schrieb:
WOW wie toll. 32+8 Threads in 2022 für eine PRO Workstation. AMD hat seit 2020 schon 128 Threads. IN 2022 hat AMD wahrscheinlich sogar schon 192 ... ZEN4 Threads
Also AMD braucht mit Zen3 mindestens 6 Kerne und 12 Threads, bzw 8 Kerne und 16 Threads mit jeweils mindestens doppeltem stromverbrauch, um in Render-Benchmarks am M1 vorbei zu ziehen, welcher 4 starke Kerne und 4 Effiziente hat.
Die effizienten zusammen ergeben von der Leistung grob etwa 1 Kern (MP-Ratio sind 5,19~ in Cinebench).
Also grob 5 starke Kerne.
Dazu der Energieverbrauch und die "Alltagsleistung", die man nicht ignorieren darf.

Die Anzahl der Kerne sagt gar nichts aus ;) Wichtig ist, was am Ende raus kommt.

Bei Autos gab's vor 30 Jahren auch schon V8 Motoren, die dann 280 PS hatten.
Heute zieht dem ein aufgeblasener 4-Zylinder mit 400 PS komplett davon, und verbraucht dabei auch noch weniger.

PS828 schrieb:
Die kerne haben weiterhin kein HT oder?

Auch versteh ich nicht ganz bei 8+2 was nun die kleinen und was die großen kerne sind.
Richtig, kein HT.
In dem Fall sind 8 Kerne die High Performance Kerne, und die 2 sind High Efficiency Kerne (umgekehrt wäre es ja auch etwas sinnfrei in einem Pro Gerät).

PS828 schrieb:
Schließlich sind x86 Chips auch extrem effizient wenn es sie dann auch in 5nm gibt. Die Effizienzvorteile aktuell ziehen sich ja auch zu großen Teilen aus der Fertigung.
Ich behaupte: Ob 5nm oder 7nm wird nicht viel Unterschied machen. Das hat es auch mit 12nm -> 7nm noch nicht. Oder bei Intel 14nm++++ -> 10nm.
Schau dir mal die Intel macbook Pros an, mit 8th Gen i5 vs. 10th gen i5, welcher in 10nm gefertigt wurde.
Beim Stromverbrauch und der Leistung nahezu kein messbarer Unterschied. Die Akkulaufzeit hat sich dadurch nicht plötzlich von 10 Stunden auf 20 Stunden verdoppelt, nur weil die fertigung kleiner wurde.
Das Boost-verhalten macht da einfach das meiste kaputt.

Nur die Fertigung auf 5nm bringen bringt nicht annähernd so viel, wie man denken mag.

Herdware schrieb:
Wie gesagt, ich bin positiv überrascht, wie sich Apples M1 schlägt, aber von Pulverisieren würde ich nicht unbedingt sprechen, denn wir haben ja nur den direkten Vergleich von M1 und älteren Intel-Macs, in denen noch auf 14nm (ursprünglich von 2014) gefertigte CPUs stecken, die weitgehend auf Skylake-Architektur (von 2015) basieren. (Wie gesagt, da herrschte besonders bei Intel zuletzt eine Art "Ausruhen".) Das verzerrt das Bild etwas.
Gegen aktuelle Zen3-CPUs in 7nm sähe M1 wohl immer noch gut aus, aber nicht unbedingt völlig deklassierend.
Ab welchen konkreten Zahlen würdest du denn von "deklassierend" sprechen? Bzw, in welchen konkreten Situationen und gegebenheiten definierst du "Effizienz"?
Der M1 hat aktuell selbst verglichen mit Zen3 eine mindestens doppelt so gut effizienz. Zu einem großen Teil auch dank den "High Efficiency Cores".
Dieser Effizienz-Unterschied ist im Alltag unter Teillast daher um ein vielfaches größer prozentual, als z.B. unter Benchmark last.
Ich seh ohne ein big.LITTLE Konzept wie z.B. Alder Lake es angehen will, keine chance, mit der Effizienz von Apple Silicon mithalten zu können.
 
  • Gefällt mir
Reaktionen: TheCrazyIvan
Herdware schrieb:
Intel hatte sich damals, bei Schritt auf 64Bit entschieden, auf eine ganz neue, modernere RISC-Archtektur zu wechseln (Itanium).
Nein, Itanium ist kein RISC, sondern ein erweitertes VILW-Design, dass in seiner Form sehr stark vom Compiler abhängt, da diesem weite Teile der Out-of-Order-Sortierung zu gefallen wäre und dieser beim Compilieren die OPs entsprechend gekennzeichnet hätte, so dass der Itanium aus den kommenden OPs passende MarkoOPs hätte bauen können um alle ALUs auszulasten.
Herdware schrieb:
AMD entschied sich bei erweitertem x86 und CISC zu bleiben, was aber, wenn ich die Aussage von Anand und Weber nicht ganz missverstehe, halt doch nur den Decoder betrifft und der Rest der CPU davon unabhängig ist.
Das Problem ist viel eher, dass du an der Stelle versucht verschiedene Sachen von einander zu trennen, die man so nicht trennen kann, weil es sich Gegenseitig beinflusst, deswegen auch mein Hinweis, dass es ja nicht nur an CISC - damit den Decoder - alleine liegt, sondern ebenso auch an den Spezifikationen, die mit der ISA getroffen werden.

Herdware schrieb:
... doch auch die x86-CPUs schon längst (seit dem Pentium Pro und AMD K6?) "RISC". Da unterscheiden sich AMD64, x86, IA64 und ARM letztlich nicht oder nur sehr wenig.
Ja und Nein zu gleich unglaublich komplex.

Richtig ist, dass RISC-Ansätze mit der Zeit in die x86 "Hardware"-Architektur eingeflossen sind. Bereits der i486 hat die CISC-Marko-Befehle in kleine MikroOPs zerlegt, damit man diese besser auf die ALUs und LD/St aufteilen kann. Das waren dann die ersten Pipeline-Ansätze, die mit dem P5 ausgebaut wurden.

Der P6 war dann MikroOPs, die RISC ähnlich sind, da zu dann super Skalarität, OoO und Co. Man hat dann wegen der Pipeline, wegen OoO und weil man mehr ALUs pro Kern unter bringen wollte, entsprechend auf RISC-Interne verarbeitung umgesattelt.

Und damit kommen wir zu einem weiteren Punkt: Bei den frühen Pentium Pros sowie K6, K7 und auch K8, sprechen wir von CPUs, die Anfangs eine zweite "ALU" einführten, die Decoder damals konnten 2 Befehle pro Takt in die MikroOPs zerlegen um die Pipeline zu füllen. Mit OoO versuchte man dann die beide ALUs parallel rechenn zu lassen.

Heute - bereits recht lange - hängen die Decoder von Intel und AMD bei 4 Befehlen fest und man versucht sogar alles mögliche um möglichst viele Befehle in einem MikroOP-Cache zu halten, weil das Decodierine sehr aufwendig ist. Man nutzt hier also bereits einen Zwischenspeicher und die Tatsache, dass es Schleifen und Co in Programmen gibt, nur damit man um das Decodieren herum kommt, weil das eben Zeit braucht.

RISC-Befehle sind bereits in der Regel "atomar", während man bei CISC durchaus ein paar späße haben konnte, die in RISC nicht gehen. Da kommen wir halt dazu, dass früher die Register in CISC feste "Aufgaben" hatten. Klar, wird heute durch "Register"-Umbenennung umgangen und die Verallgemeinerung der Register in x86_64 hilft da, aber doch merkt man auch da das alters.

Das ist jetzt nur ein "Fiktives" Beispiel - ich hab ewig nicht mehr Assembler programmiert auf nem CISC, 15 Jahre nicht mehr, aber wir hatten durchaus da sowas: ADD_SAV 54, 43, 0x01. Das haben wir so in den ROM eingeben als Assembler: Addiere 54 + 43 und speicher das im RAM an Stelle 0x01.

Der Decode macht daraus dann das und so kommen aber auch bereits die RISC-Befehle an.
Code:
LD r1 54
LD r2 43
ADD r1, r2
SAV r1, 0x01

Dazu die Sache mit den Registern. Die Anzahl macht hier auch viel aus und warum der M1 "effizienter" ist, denn mit 31 Registern kann er wesentlich länger auf LOAD und STORE-Anweisungen verzichten in der Pipeline, weil alles in den Registern liegt und die Compiler wissen das auch. Wie ich sagte: Bereits in den 80er wusste man, das LOAD, STORE und COPY die Effizienz eines Prozessores einbrechen lässt, weil man auf Daten wartet.

Klar, heute mit Register-Renaming und Co, kann man da einiges optimieren nur ... solche Späße haben ja moderne ARM-Kerne auch und wieder: 31 Register schlagen 16.

Es ist irrelevant, ob heute x86-Kerne intern "RISCfy" sind und ARM-CPUs intern genau so wie x86-CPUs arbeiten. Die Probleme liegen in der ISA und mit welchem Hintergedanken die ISA in den 70er entworfen wurde und das hat bis heute Auswirkung, auch wenn AMD mit x64 einige dieser Probleme angegangen ist.
 
  • Gefällt mir
Reaktionen: WiP3R, TheCrazyIvan, Mr.Donatti und 3 andere
Darkseth88 schrieb:
Intel stellt im Microcode 100 Mhz mehr Turbo ein, und verkauft das dann als komplett neues Produkt mit eigener Bezeichnung.
[...]
Sind die also selbst schuld, wenn die sich so unnötig viel Arbeit machen.. Alleine Tiger Lake hätte man in eine hand voll Modelle aufteilen können und das hätte mehr als gereicht. Oder noch weniger, weil die Leistung ja dann mittels TDP-Konfiguration unterschieden werden könnte.

Das sehe ich absolut genau so, aus einem Die drölfzig verschiedene Produkte rausschlagen zu müssen, ist mMn noch ein Überbleibsel der Quasi Monopol Zeit, als man es sich schlichtweg erlauben konnte.
Heute sehe ich zwar ein, dass man mit ein paar Varianten die Ausbeute erhöht, aber jeden 100Mhz Binning Schritt als 'neue' CPU zu verkaufen, ist... puh, gefällt mir auch nicht.

Ändert aber nichts an der Tatsache, dass Intel allein bei den CPUs vom Atom bis zu riesen Server Monolithen eine riesiges Feld abdeckt und Apple gerade mal den M1, die IPhone SoCs und noch ein paar kleinere Designs für Smartwatch und Speaker hat.

Teralios schrieb:
Nein, Itanium ist kein RISC, sondern ein erweitertes VILW-Design
Typo -> VLIW
 
Zuletzt bearbeitet:
TCHAMMER schrieb:
Zu einem Preis von ca. 6000€ für die CPU alleine und mit einer Geringeren Single Core Leistung und einer Deutlich höheren Leistungsaufnahme ( 225 Watt ) als der M1 ( 30 Watt ) bzw. zukünftigen M SOC´s.
Was glaubst du wird der Mac Pro mit 32 Kernen kosten?
Und was soll der unsinnige Vergleich mit dem M1. Das sind 4 Firestorm für 30 Watt. 32 liegen dann nach Adam Riesling bei 240 Watt. AMD bekommt auch 8 Kerne in 15 Watt unter.

Es geht hier nicht um Effizienz im kleinen Maßstab oder Kosten, sondern maximale Performance. Die Kerne sind nicht so stark, so dass sie mehrere Zen Kerne schlagen.
Was nagus natürlich vergessen hat ist, dass man die Kerne erstmal auslasten muss. Der Mac Pro ist nunmal Workstation und kein Server.

Fakt ist, dass Apple sehr gute effiziente Kerne bauen kann. (Und das nicht erst seit dem M1, verstehe das gehype nicht. Der A12X war nicht minder imposant)
Was Apple jetzt zeigen muss, dass sie auch ein Design mit hoher TDP und/oder vielen Kernen hinbekommen. Da müssen sie sich um den Interconnect und der Speicherverwaltung auseinandergesetzt haben. Das klappt nicht mehr mit einem shared L2 Cache. Das ist nicht trivial zu lösen. Bisherige ARM Server CPU hatten sehr hohe Latenzen. Ich bin gespannt was Apple aus dem Hut zaubert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: nagus
TCHAMMER schrieb:
Zu einem Preis von ca. 6000€ für die CPU alleine und mit einer Geringeren Single Core Leistung und einer Deutlich höheren Leistungsaufnahme ( 225 Watt ) als der M1 ( 30 Watt ) bzw. zukünftigen M SOC´s.

Sollte jemals eine Apple Workstation schneller UND billiger sein als ein PC, dann fresse ich einen Beseninkl. Putzfrau! Schau dir doch mal den aktuellen Mac Pro an, was der kostet und wie schnell (oder besser gesagt langsam) der ist. Du glaubst doch wohl nicht ernsthaft, das Apple etwas günstiges baut? Vorher schwimmen Pinguine im Mondsee

Und die Verlustleistung ist bei Workstations so ziemlich das, was die Leute am wenigsten interessiert (inkl. Apple! Siehe aktueller Mac Pro und alles was davor war.

Geringere Single-Core Leistung: völlig Banane bei einer 40+ Kerne Workstation CPU. Die Kauft man sich nicht wegen der Single-Core Leistung 🙄
 
  • Gefällt mir
Reaktionen: Innocience, beercarrier, gaelic und eine weitere Person
Darkseth88 schrieb:
Die Anzahl der Kerne sagt gar nichts aus ;) Wichtig ist, was am Ende raus kommt.
Die Firestorm-Kerne im M1 sind ja auch quasi 50 % breiter, als die Kerne von Intel und AMD.

Und da ist ja die Frage: Warum kann Apple eine so breite CPU bauen, während man bei Intel seit fast 10 Jahren und bei AMD nun seit Zen 4 ALUs und 2 FPUs stehen geblieben ist und warum man den Decoder beschleunigt, damit dieser vielleicht auch 8 Befehle pro Takt schafft.

Und für die Freaks unter uns, was mal die Loads und Stores angeht Zen 3: 3 Loads, 2 STores. Der FireStorm kommt auf 2 Loads + 1 Store und dazu die Einheit, die entweder 1 Load oder 1 Store vearbeit, also 3 LOADS +1 Store oder 2 Loads + 2 Store. Setzt man das mal in Relation zu den ALUs ... Register sind halt doch nicht wirklich zu ersetzen. ;)

Was mich mal interessiere würde: wie gut ist die Sprungvorhersage bei Apple.
Ergänzung ()

v_ossi schrieb:
Danke. Naja eigentlich ist es ja EPIC! :D
 
  • Gefällt mir
Reaktionen: WiP3R und TheCrazyIvan
conspectumortis schrieb:
Die können auch dröflmillionen haben, oder apple kann dröfmillionnen haben. Es kommt nur darauf an, was hinten raus kommt. Ich kaufe doch nicht nach Threads/Kerne, sondern nach Leistung, Preis und eventuell wie viel Saft das Ding zieht.

Du hast deine Argument selbst entkräftet. "Ich kaufe nach Leistung, Preis.... " ... Apple und preiswert? Selten so gelacht!
Ergänzung ()

bensen schrieb:
Fakt ist, dass Apple sehr gute effiziente Kerne bauen kann. (Und das nicht erst seit dem M1, verstehe das gehört nicht. Der A12X war nicht minder imposant)
Was Apple jetzt zeigen muss, dass sie auch ein Design mit hoher TDP und/oder vielen Kernen hinbekommen. Da müssen sie sich um den Interconnect und der Speicherverwaltung auseinandergesetzt haben. Das klappt nicht mehr mit einem shared L2 Cache. Das ist nicht trivial zu lösen. Bisherige ARM Server CPU hatten sehr hohe Latenzen. Ich bin gespannt was Apple aus dem Hut zaubert.
Völlig richtig! Außedem vergessen hier viele Apple-Jünger die Erweiterbarkeit von M1, was Speicher und Grafik angeht... die ist nämlich = ZERO.
 
  • Gefällt mir
Reaktionen: gaelic und tarkin77
Zurück
Oben