News ARM-Server-Roadmap: 192 Kerne bei bis zu 350 Watt werden deutlich schneller

Volker

Ost 1
Teammitglied
Dabei seit
Juni 2001
Beiträge
15.699
Bis zu 192 Kerne mit bis zu 50 Prozent mehr IPC als der Vorgänger, dazu TDPs bis 350 Watt – ARMs Server-Lösungen werden mächtiger. Und der Ausblick ist nicht weniger offensiv, schon für 2021 ist ein weiteres Update geplant, ab 2022 sollen schon PCIe 6.0 und viele andere Neuheiten Einzug halten.

Zur News: ARM-Server-Roadmap: 192 Kerne bei bis zu 350 Watt werden deutlich schneller
 

DaBo87

Ensign
Dabei seit
Nov. 2018
Beiträge
151
Spannend. Ob es wohl künftig mal CPUs geben wird, die bspw. 8xARM Kerne, 8x x86 Kerne und dazu 8 RISC-V Kerne vereinen? So als Universalgenie, wo man alles drauf laufen lassen könnte, die Anwendungen suchen sich dann "ihre" Kerne aus, je nach Anwendungsfall.
 

-Ps-Y-cO-

Rear Admiral
Dabei seit
Okt. 2007
Beiträge
5.501
Das ist schon eine sehr Geile Situation in den Datacentren.

  • IBM mit SMT-8.
  • AMD mit 64/128T und grandioser µArch.
  • Intel mit dem Rücken zur Wand aber 94% Marktanteil.
  • ARM als Neuling der sich beweisen muss.

Geil!
Die TOP500 über die nächsten 5 Jahre (wird ja 2x im Jahr Aktuallisiert) wird echt Spannend.

Bis vor ein Paar Quartalen war es nur IBM und Intel.
durch AMD und ARM sollte die Innovationsbremse von IBM und Intel gelockert werden da Konkurrenz ja bekanntlich das Geschäft belebt. Heisst also jetzt kann es nur Vorwärts gehen.

Was auch ganz Spannend ist, dass nur ARM HBM-on-Package hat. (Siehe Fujitsu)
Die anderen 3 könnten HBM ebenso direkt neben dem Die Platzieren. Denke auf Blaupapier ist da schon einiges in Gang. Grade von AMD und IBM erwarte Ich da großes.
 
Zuletzt bearbeitet:

Demon_666

Commander
Dabei seit
Dez. 2017
Beiträge
2.049
  • Gefällt mir
Reaktionen: Tzk

Cool Master

Fleet Admiral
Dabei seit
Dez. 2005
Beiträge
30.483
Ob es wohl künftig mal CPUs geben wird, die bspw. 8xARM Kerne, 8x x86 Kerne und dazu 8 RISC-V Kerne vereinen?
Denke ich nicht. Warum sollte man das machen? Entweder ich brauch x86 und deren Befehlssatz oder ich brauch den von ARM bzw. RISC-V. Der Vorteil von so einer CPU sehe ich einfach nicht. Weder bei Kosten noch Effizienz wäre die CPU super.
 

[wege]mini

Commodore
Dabei seit
Juli 2018
Beiträge
4.200
Etwas OT aber:
Prometheus ("der Vorausdenkende") ist nur nach persönlicher Auslegung etwas/jemand schlechtes.
Du musst die ganze Geschichte lesen.

Daher passen die Namen in dem Zusammenhang schon ganz gut. Das was die Teile können sollen ist, in "alten" Dimensionen betrachtet, "göttlich".

Ob jetzt zwingend, "das Feuer" von irgend einem dieser Computer an die Menschen, gegeben werden soll, bleibt mal dahin gestellt.

KI für Waffen brauche ich z.B. persönlich absolut nicht.

Dafür können solche Computer aber jederzeit eingesetzt werden.

mfg
 

DaBo87

Ensign
Dabei seit
Nov. 2018
Beiträge
151
Denke ich nicht. Warum sollte man das machen? Entweder ich brauch x86 und deren Befehlssatz oder ich brauch den von ARM bzw. RISC-V. Der Vorteil von so einer CPU sehe ich einfach nicht. Weder bei Kosten noch Effizienz wäre die CPU super.
Das mag ja jetzt gelten, aber so wie ich das sehe, hat jede Architektur so ihre Schwächen und Stärken. Und wenn man eine Anwendung programmieren könnte, die sich einfach auf die Stärken jeder Architektur konzentriert? Klar, man bräuchte irgendeine Middle(hard- oder soft)ware, die das ganze dann wieder vereint, aber irgendwie hätte das Charme. Ich komme nur drauf, weil ARM gerade recht aufzuholen scheint.
 

NikoNet

Lieutenant
Dabei seit
Feb. 2005
Beiträge
667
Ich hatte bis jetzt immer nur verstanden, dass ARM nur die Architektur entwickelt und diese an andere Fertiger/Hersteller lizensiert.
Wer baut in diesem Fall nun die Prozessoren?

Ist das der hauptsächliche Grund gewesen, dass nVidia ARM übernommen hat?
So können die gaze Server gepaart mit Ampere (und Nachfolger natürlich) bauen.
 

n8mahr

Commander
Dabei seit
Aug. 2006
Beiträge
2.250
Ist das der hauptsächliche Grund gewesen, dass nVidia ARM übernommen hat?
So können die gaze Server gepaart mit Ampere (und Nachfolger natürlich) bauen.
Ich glaube weniger, das nvidia cpu und gpu zusammen bauen will (also ne apu). vermute viel mehr, dass sie von arm lernen wollen, wie man viele kleine, effiziente chips vereint und das skaliert (wie es auch amd mit den cpus macht und wahrscheinlich bald auch im gpu-bereich einbauen wird). Aber das ist wie gesagt nur eine Vermutung.
 

PhilAd

Lt. Commander
Dabei seit
Jan. 2008
Beiträge
1.559
Das mag ja jetzt gelten, aber so wie ich das sehe, hat jede Architektur so ihre Schwächen und Stärken. Und wenn man eine Anwendung programmieren könnte, die sich einfach auf die Stärken jeder Architektur konzentriert? Klar, man bräuchte irgendeine Middle(hard- oder soft)ware, die das ganze dann wieder vereint, aber irgendwie hätte das Charme. Ich komme nur drauf, weil ARM gerade recht aufzuholen scheint.
Wollte man nicht genau davon weg? In einem (modernen) Datacenter sollte alles Hardwareunabhängig laufen. Lediglich an bestimmten Stellen wie z.B. wenn es daraum geht die Dataplane zu bedienen setzt man noch auf ASICs, ansonsten ist im Controlplane Bereich alles mit xy austauschbar.
 

Cool Master

Fleet Admiral
Dabei seit
Dez. 2005
Beiträge
30.483
Das mag ja jetzt gelten, aber so wie ich das sehe, hat jede Architektur so ihre Schwächen und Stärken.
Richtig diese dann aber zu verbinden taugt nichts. Wie gesagt wenn ich ARM brauche --> Effizienz muss ich nicht noch x86 und RISC-V bezahlen und mit betreiben. Genau so geht es für die anderen Wege auch.

Und wenn man eine Anwendung programmieren könnte, die sich einfach auf die Stärken jeder Architektur konzentriert?
Dann mach ich das entsprechend für die Architektur und probiere nicht ein neues Java zu bauen nur damit es überall läuft. Eine richtige App die nur auf x86, ARM oder RISC-V läuft wird immer schneller sein als eine Hybrid-App die eine Eierlegende Wollmilchsau sein soll.

Klar, man bräuchte irgendeine Middle(hard- oder soft)ware, die das ganze dann wieder vereint, aber irgendwie hätte das Charme.
Nur weil etwas Charm hat ist es aber nicht sinnvoll ;) Wie gesagt wenn man eine App brauch macht man das auf einer Architektur dessen Befehlssatz das Problem welches man hat lösen kann. Nicht unnötig Komplexität in eine App rein bringen das ist am Ende einfach nur ein Support Problem hoch 50.
 

Simon

Fleet Admiral
Dabei seit
Jan. 2002
Beiträge
10.687
Zitat von News:
Skalierbar von acht bis hinauf zu 192 Kernen (eventuell aber als Dual-Sockel-Lösung?) sollen sie die Lösung für fast jedes mögliche Einsatzgebiet sein.
Die 192 Kerne wird es denke ich pro Sockel geben, aber dann als Chiplet-Design über CCIX 2.0. Möglich wären dann 4x 48 oder 8x 24 Kerne pro Chiplet, was ja ziemlich in die Richtung gehen würde, was AMD mit EPYC dann so veranstaltet (aktuell 8x 8-Kern-Chiplets, mit Genoa und Nachfolger dann wohl auch eher in Richtung 8x 12C oder 2x 16C).

PCIe 6.0 in 2022 klingt schon arg früh, da aktuell nicht mal flächendeckend PCIe 4.0 zum Einsatz kommt und PCIe 5.0 bei AMD und Intel auch eher erst Ende 2021 / Anfang 2022 zu warten sind. 6.0 steht da ja noch nicht mal auf der offiziellen Roadmap. Das würde heißen, dass wir jetzt die nächsten zwei Jahre jeweils eine neue PCIe Version sehen. Gut, für Peripherie ohnehin eher uninteressant, eher als elektronische Basis für CXL.
 

Shoryuken94

Vice Admiral
Dabei seit
Feb. 2012
Beiträge
6.567
Spannend. Ob es wohl künftig mal CPUs geben wird, die bspw. 8xARM Kerne, 8x x86 Kerne und dazu 8 RISC-V Kerne vereinen? So als Universalgenie, wo man alles drauf laufen lassen könnte, die Anwendungen suchen sich dann "ihre" Kerne aus, je nach Anwendungsfall.

Kann man machen, macht aber wenig Sinn. Das macht ein Chiplayout nur unnötig kompliziert und ist für die wenigsten Anwendungsbereiche notwendig, da man seine Server entsprechend seinem Einsatzzweck aussucht. hast du natürlich einen Einsatzzweck für mehrere Architekturen, kannst du auch eine gemischte Infrastruktur fahren. Da die meisten dann aber nicht nur ein paar Kerne brauchen, macht es mehr Sinn, dann ein paar Racks voller ARM Server hinzustellen, neben den Racks voller x86 Kisten.

Ein gemischter Chip macht da nicht wirklich viel Sinn, da kaum Anwendungsbereiche. Als kleiner Spielchip für Entwickler nett zum Spielen und probieren. Aber in Zeiten von zeitlich gemieteten Cloud Ressourcen etc. auch nicht wirklich notwendig.
 

Weyoun

Lt. Commander
Dabei seit
Okt. 2010
Beiträge
1.645
PCIe 6.0 in 2022 klingt schon arg früh, da aktuell nicht mal flächendeckend PCIe 4.0 zum Einsatz kommt und PCIe 5.0 bei AMD und Intel auch eher erst Ende 2021 / Anfang 2022 zu warten sind. 6.0 steht da ja noch nicht mal auf der offiziellen Roadmap. Das würde heißen, dass wir jetzt die nächsten zwei Jahre jeweils eine neue PCIe Version sehen. Gut, für Peripherie ohnehin eher uninteressant, eher als elektronische Basis für CXL.
Ich denke, hier handelt es sich um einen Tippfehler. PCI 6.0 ist noch nicht einmal in der Entwicklung (maximal in der Konzeptphase).
 

Cool Master

Fleet Admiral
Dabei seit
Dez. 2005
Beiträge
30.483
Bedenkt die PCIe Specs müssen kommen weit bevor die HW da ist. Des Weiteren muss auch nicht unbedingt der Speed voll genutzt werden. Es ist schon sinnvoll alleine um die Lanes minimieren zu können bei gleicher Bandbreiten. PCIe x8 4.0 ist genau so gut wie PCIe x16 3.0 brauch aber nur die hälfte der Lanes und die anderen 8 könnte man z.B. für NVMe SSDs nutzen oder 10 GBit on Board usw.
 

smalM

Captain
Dabei seit
Aug. 2007
Beiträge
3.729
Schöne Namen für ein spannendes Projekt.
Zeus, Perseus, Poseidon.
Jetzt muss man nur die Daumen drücken, dass kein Prometheus dazu kommt.
Prometheus = Cortex-A75 – ab da hat Arm seinen Cores Feuer unterm Hintern gemacht...

Cortex-A72 = Maia
Cortex-A73 = Artemis
Cortex-A76 = Enyo
Cortex-A77 = Deimos
Cortex-A78 = Hercules
Cortex-X1 = Hera

Neoverse E1 = Helios
Neoverse N1 = Ares
Neoverse V1 = Zeus
Neoverse N2 = Perseus
Neoverse N3 = Poseidon

Cortex-A79/X2 = Amphitrite ;)
 
Zuletzt bearbeitet:

Hayda Ministral

Rear Admiral
Dabei seit
Nov. 2017
Beiträge
5.813
Top