News Grace Superchip: Nvidias 144-Kern-ARM-CPU-Modul nutzt zwei Chips

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.403
  • Gefällt mir
Reaktionen: boxte30:Goas, BrollyLSSJ, DirtyHarryOne und 4 andere
ARM bringt Schwung in den Markt der CPUs. Ich bin gespannt. AMD wollte ja auch mal in den ARM Servermarkt einsteigen, daraus ist aber irgendwie nie was geworden. Mal sehen, was die Zukunft bringt.
 
Nvidia bringt für die eigene ARM Platform in Autos und Supercomputern ein Brett nach dem anderen und als Tegra für Shield und vor allem Switch verkauft man antike Hardware mit lange veralteten Architekturen und der einzige Fortschritt war ein Shrink von Uraltnode auf Altnode. Irgendwie einfach nur traurig, was da für Potential liegen bleibt.

Absolut verständlich, da im Server und vor allem AI unglaublich mehr Geld zu machen ist und viel sicher auch Nintendos Schuld, die ja am liebsten noch den Chip aus dem Gamecube verkaufen würden, wenn sie könnten.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
"Vor einem Jahr nannte Nvidia über 300 Punkte im SPECrate2017_int_base-Benchmark als Zielvorgabe für eine Grace-CPU, für den Grace Superchip stellt Nvidia jetzt konkret 740 (370 je Chip) in Aussicht. AMD Epyc „Milan“ mit 64-Zen-3-Kernen erreicht in diesem Benchmark zwar 820 Punkte, doch muss Nvidia mit der eigenen Lösung auch gar nicht zwingend das Topprodukt der Konkurrenz schlagen, sondern die zurzeit eingesetzte Leistungsklasse."

hä? aber Milan (X) ist doch JETZT schon draußen - Grace kommt aber erst in der ersten Hälfte 2023!? Und da stehen schon Genoa/Bergamo in den Startlöchern.

Und "Superchip" omg was für ein Marketingeblubber...
 
  • Gefällt mir
Reaktionen: JustAnotherTux, derSafran, tritratrullala und 8 andere
[F]L4SH schrieb:
Nvidia bringt für die eigene ARM Platform in Autos und Supercomputern ein Brett nach dem anderen und als Tegra für Shield und vor allem Switch verkauft man antike Hardware mit lange veralteten Architekturen und der einzige Fortschritt war ein Shrink von Uraltnode auf Altnode.
Daran musste ich auch gerade denken.
Aber wie viel Leistung mehr brauchst du denn zum Schauen von Videos und den paar Apps am TV?

Ok, AV1 kann Tegra nicht in Hardware und 8K ist auch noch mal eine ordentliche Steigerung aber das ist ja für den Chip alles pipifax, wenn man sieht, wofür der sonst herangezogen wird.

NVidia wird sich da mal was aufbauen und die Reste, effizient in neue Produkte fließen lassen, die auch mit einem Bruchteil gut befeuert sind.
 
Dittsche schrieb:
Und "Superchip" omg was für ein Marketingeblubber...
Ich denke hier ist es das lateinische "super" bzw "superus" und weniger Marketing, sondern eine Funktionsbezeichung der Bündelung, Klammer bzw. Vereinigung.
 
  • Gefällt mir
Reaktionen: mm19, Vasilev und Dittsche
600GB GPU Speicher, OK, nehm ich halt.
Für das AI Studenten Projekt sollts reichen...
 
  • Gefällt mir
Reaktionen: Gringoli, Spawn182 und Laphonso
Toms schrieb:
Natürlich ist das Marketing :D
"Super" ist ein so generischer Begriff, dass er nicht mehr wirkt.

Hier ist es ein Klammerchip. Super klingt nur cooler. Von daher, ja, kann man da wieder sagen, das ist aus Marketinggründen besser. Welche Begriffalternative hättest Du denn im ANgebot?


Combo-Chip? Dual-Chip? Doubletech-Chip? CPU² ? ^^
 
Spannend. Gleichzeitig wird H1 2023 etwas spät --- aber das liegt wahrscheinlich einfach daran, dass die Fertigung noch etwas braucht. Gibt aber Intel, AMD und dritten Konkurrenten die Möglichkeit, präventiv zu handeln.
[F]L4SH schrieb:
Nvidia bringt für die eigene ARM Platform in Autos und Supercomputern ein Brett nach dem anderen und als Tegra für Shield und vor allem Switch verkauft man antike Hardware mit lange veralteten Architekturen und der einzige Fortschritt war ein Shrink von Uraltnode auf Altnode. Irgendwie einfach nur traurig, was da für Potential liegen bleibt.
Nvidia hat einfach kein Konzept gefunden, mit dem sie die Tegras aus ihren sonstigen Entwicklungsabteilungen querfinanzieren bzw. querentwickeln können. Das ist das ganze Problem, nicht mehr.
 
Zuletzt bearbeitet: (Q1 → H1)
Finde nur ich die Werte absolut unterwältigend?
740 Punkte bei 144 Kernen und 500w und das erst nächstes Jahr, während ein Epyc seit über einem Jahr 820 Punkte mit 64 Kernen bei 280w(+Speicher) macht.
Das Teil ist doch jetzt schon nicht konkurrenzfähig, wie soll das nächstes Jahr erst gegen Genoa und Sapphire Rapids aussehen?
 
  • Gefällt mir
Reaktionen: DirtyHarryOne, -Ps-Y-cO- und malcolm
@guggi4
Genoa und Sapphire Rapid sind halt nicht Nvidia und nicht ARM sondern x86.
Ändert aber nichts an deiner korrekten Aussage.

Man will halt das Gehalt der Marketing Abteilung hoch halten.
 
  • Gefällt mir
Reaktionen: Duffy Duck
guggi4 schrieb:
Das Teil ist doch jetzt schon nicht konkurrenzfähig, wie soll das nächstes Jahr erst gegen Genoa und Sapphire Rapids aussehen?
Wenn man der Keynote gefolgt hat, ist eine starke CPU auch nicht Nvidias Ziel. Es geht hier vermutlich eher um ein Prozessor, welcher das OS und die Befehle im Hintergrund steuert. Warum der Verbrauch so hoch scheint, ist aber die andere Frage.
Würde mich nicht wundern, wenn 500W das gesamte Package meint, also entweder 2 Grace oder Grace Hopper.
 
guggi4 schrieb:
740 Punkte bei 144 Kernen und 500w und das erst nächstes Jahr, während ein Epyc seit über einem Jahr 820 Punkte mit 64 Kernen bei 280w(+Speicher) macht.
Bei AMD sind auch keine 600 GB Speicher dabei. Wenn Nvidia "industrieweit führenden Effizienz" sagt, dann wird das auch so stimmen. Wie es nächstes Jahr aussieht wird sich zeigen.
 
  • Gefällt mir
Reaktionen: 3dfx_Voodoo5
S.Kara schrieb:
Bei AMD sind auch keine 600 GB Speicher dabei.
Die hat allerdings auch nur der "Grace Hopper Superchip" mit CPU und GPU, während sich die 500 Watt auf den "Grace Superchip" mit zwei CPUs und xx GB LPDDR5X, aber ohne GPU beziehen.
 
  • Gefällt mir
Reaktionen: ZRUF und S.Kara
Also irgendwie wirkt das auf mich auch nicht überzeugend. Man hat das Gefühl, dass Apple das mit dem M1 Ultra schafft, wofür NVidia 144 Kerne braucht.
Ich bin ja voll dafür, dass sich bei ARM - oder noch besser bei RISC V - mal was tut und stärkere Konkurrenz zu x86 entsteht. Nur verstehe ich einfach nicht, warum Apple scheinbar wirklich die einzige Firma ist, die aus ARM richtig Leistung rauskitzeln kann.
Mir ist natürlich klar, dass Apple sich immer die beste Fertigungstechnik sichert. Das gewährt einen gewissen Vorsprung. Aber weder NVidia, noch Qualcomm, noch sonstwer schafft es sonst einen überzeugenden Chip zu präsentieren.

Und ja rund 10% weniger Leistung als Milan bei in der Summe zumindest ähnlichem Stromverbrauch.... reißt mich nicht vom Hocker.

Der einzige Vorteil, der noch bleibt: Alles aus einer Hand.
 
  • Gefällt mir
Reaktionen: USB-Kabeljau
Wenn man euch so "zuhört", hört es sich nach Resteverkauf von Ware aus den Vorjahren an :-)
 
[F]L4SH schrieb:
Nintendos Schuld, die ja am liebsten noch den Chip aus dem Gamecube verkaufen würden, wenn sie könnten.
Dankbarkeit für Nachhaltigkeit ist nicht so deines. 🤦🏼‍♂️🤷🏼‍♂️
 
Zurück
Oben