News AMD Instinct: MI300X mit 192 GB HBM3 und 153 Milliarden Transistoren

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.927
  • Gefällt mir
Reaktionen: C4rp3di3m, Holgmann75, andi_sco und 16 andere
Das Chiplet-Design scheint sich für AMD echt auszuzahlen.

Büro-CPU? 1-2x CPU-Chiplets, 0-1x GPU-Chiplets, 0-1x Cache-Chiplets
Gamer-CPU? 1-2x CPU-Chiplets, 0-1x GPU-Chiplets, 1-2x Cache-Chiplet
Server-CPU? Ja zu CPU-Chiplets, ja zu Cache-Chiplets
KI-Beschleiniger? 0x CPU-Chiplets, 8x GPU-Chiplets, extra-ja zu Cache-Chiplets
 
  • Gefällt mir
Reaktionen: andi_sco, Rockstar85, aid0nex und 6 andere
Puh Schön schön ....nur Superlative bin aber gespannt ob wir HBM(3) nochmal in Consumer Produkten sehen die sollen ja Energie effizienter sein als GDDR Ram
Bei 24GB Ram sollte es schon was bringen wenn es kein Effiziens-Märchen war da bin ich von der 7XXX Generation der Grafikkarten irgendwie ein bisschen enttäuscht.
 
  • Gefällt mir
Reaktionen: flo.murr, Kazuja und Recharging
Nvidias Quartaszahlen haben eine klare Sprache gesprochen, daher klar wo auch die Reise auch für
AMD gehen wird ! KI !!!!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DirtyHarryOne, Max0071980 und Kazuja
Beim Speicher hat Nvidia noch die H100 NVL mit 188 GB HBM3 in der Pipeline.

Was KI angeht ist Nvidia seit Jahren vor AMD. Wenn der Speicher knapp wird stüzt die Leistung extrem ab, hier kann AMD durchaus mit den 192 GB punkten, muss aber über den Preis kommen. Wenn der nah an der 80er Variante liegt siehts gut aus.
 
  • Gefällt mir
Reaktionen: Kazuja
Das große Problem von AMD ist nicht die Hardware, zwar dürfte wie im Artikel erwähnt NVidia noch immer die Nase in Punkto Leistung vorn haben aber das Hauptproblem ist das Ökosystem und der Support. Dir bringt die ganze Hardware nichts, wenn sie nicht vernünftig programmiert werden kann oder schon die Implementierung Zicken macht. Da hat AMD noch einen weiten Weg vor sich und es ist leider wie so oft, AMD muss in den Bereichen erst investieren bevor Kunden aufspringen.
 
  • Gefällt mir
Reaktionen: Unnu, Snudl, Rockstar85 und 9 andere
All das bringt AMD leider wenig, wenn die größte Bandbreite an KI Software auf Nvidia (CUDA) zugeschnitten ist. Da muss zuerst einmal was passieren, bis AMD überhaupt eine Chance hat zu Nvidia aufzuholen.
 
  • Gefällt mir
Reaktionen: ErichH., Kazuja, fox40phil und 2 andere
Da kann man mal sehen, wie man die Transistoren einsetzen kann.
Apple baut damit einen Mini-PC, AMD einien riesigen Serverbackstein.
So grundverschieden kann die Ausrichtung sein.
Daher halte ich diese ewigen Äpfel mit Birnen Vergleiche für unnötig.
Die Präsentationsfolien und "Benchmarks" sind eh nicht aussagekräftig und nur für den eigenen Vorteil hochoptimiert.
 
  • Gefällt mir
Reaktionen: Gringoli, Kazuja und Makso
Vielleicht bremst das den Höhenflug von Nvidia etwas ein und man merkt das dann auch an den Preisen für Consumer Produkten. Ist wohl Wunschdenken...
 
  • Gefällt mir
Reaktionen: Unnu, JohnDonson, Kazuja und eine weitere Person
_Aqua_ schrieb:
Das Chiplet-Design scheint sich für AMD echt auszuzahlen.

Büro-CPU? 1-2x CPU-Chiplets, 0-1x GPU-Chiplets, 0-1x Cache-Chiplets
Gamer-CPU? 1-2x CPU-Chiplets, 0-1x GPU-Chiplets, 1-2x Cache-Chiplet
Server-CPU? Ja zu CPU-Chiplets, ja zu Cache-Chiplets
KI-Beschleiniger? 0x CPU-Chiplets, 8x GPU-Chiplets, extra-ja zu Cache-Chiplets
Das System ist vor allen Dingen kostenoptimiert.
Natürlich hat ein monolitisches Design in zahlreichen Ausführungen, angepasst auf die jeweils nötige Anwendung, immer noch seine eigenen Vorteile, verschlingt aber unter anderem halt Unsummen an Entwicklung und ist halt auch nicht unendlich skalierbar.
Ich finde AMD's Ansatz auf jeden Fall zukunftssicherer.
 
  • Gefällt mir
Reaktionen: yummycandy, medsommer, Clausewitz und 3 andere
_Aqua_ schrieb:
KI-Beschleiniger? 0x CPU-Chiplets, 8x GPU-Chiplets, extra-ja zu Cache-Chiplets
Bei der Server-APU und der Server-GPU ist der Cach-Chiplet der integrale Bestandteil, weil dieser neben dem IF quasi die Kommunikation übernimmt. Er ist hier ebenso der Bestandteil, der hier den unified Memory in dieser Form erst möglich macht.

Es gibt die Basetiles mit Infinity-Fabric und den Memory-Controllern für den HBM. Die Basetiles werden per IF verbunden und darauf dann die CPU und GPU. Eine "einfache" Lösung, die aber sehr viel bringt. Ich bin gespannt ob man "ähnliches" später bei RDNA4 oder RDNA5 sieht, wenn sie dann mehre GCDs nutzen werrden/wollen. Der Aufbau würde einiges einfacher machen.
SANDTIGER schrieb:
Bei 24GB Ram sollte es schon was bringen wenn es kein Effiziens-Märchen war da bin ich von der 7XXX Generation der Grafikkarten irgendwie ein bisschen enttäuscht.
Ja und Nein. HBM unterliegt ab manchen Punkten den gleichen Grenzen wie GDDR-Speicher und das Mehr an Leistung kommt dann primär über den Takt, der die Vorteile bei Effizienz ein Stückweit dann negiert.

Das Hauptproblem bei HBM3 ist aber, dass dieser pro GiB deutlich teurer ist - komplexere Herstellung - und man das Interface nicht belieibig verbreitern kann und auch nicht entsprechend viele Interfaces pro Chip unterbringen kann.

HBM könnte DDR und GDDR nur ablösen auf allen Feldern, wenn er günstiger werden würde. Das ist aber aktuell nicht in Sicht.
S.Kara schrieb:
Was KI angeht ist Nvidia seit Jahren vor AMD.
Ja und Nein zur gleichen Zeit. Bei der Hardware - den Tensor-Kernen - ist NVIDIA voraus. Gleichzeitig ist der KI-Markt aber in weiten Teilen nicht so abhängig von NVIDIA, wie es der HPC-Markt allgemein durch CUDA ist.

Viele denken - siehe Zitat - das NVIDIA hier "der" Platzhirsch ist, dank CUDA, das stimmt aber zum Glück nicht.
BDR529 schrieb:
All das bringt AMD leider wenig, wenn die größte Bandbreite an KI Software auf Nvidia (CUDA) zugeschnitten ist.
Nein, da erliegst du einem Irrtum. Gerade im KI-Bereich ist NVIDIA auf Softwareseite eben nicht der Platzhirsch - zum Glück. Google, Meta und Co haben das Feld von ML bereits vor NVIDIA stark beackert und haben entsprechend ihre Frameworks Hardwareagnostisch umgesetzt. TensorFlow und Co als Framework können mit verschiedenen "Treibern" versehen werden, entsprechend gibt es einen CUDA-Unterbau, aber auch einen Metal - wenn man Apple-Rechner hat - einen DirectML und Co.

NVIDIA scheint hier eine "Übermacht" zu sein, weil NVIDIA - gerade beim Marketing zu den "Consumern" alles daran setzt um eine Verbindung KI und NVIDIA herzustellen, nur Firmen wie Google, Apple, Microsoft, Meta und Co mögen keine einseitige Abhängigkeit, da sie sich damit Erpressbar machen und entsprechend gehen die da vor.

Intel arbeitet ja auch an entsprechenden API-Unterbau für TensorFlow und Co mit ihrer OneAPI. In diesem Bereich ist NVIDIA also garnicht mal so fest im Sattel, wie man durch das Marketing meinen könnte.
 
  • Gefällt mir
Reaktionen: Convert, Poati, 3faltigkeit und 27 andere
SANDTIGER schrieb:
bin aber gespannt ob wir HBM(3) nochmal in Consumer Produkten sehen
Die letzten Karten waren soweit ich weiß ja die Vega Serie. Obwohl ich bei der Vega schon fast nicht von Consumer sprechen möchte. Ich meine die Karten sind ja dermaßen untergegangen…was schade war bzw. ist.
 
Ist ja alles schön und gut, aber ich will auch eine Consumer Variante davon als ganz normale Grafikkarte. Mit HBM3.
Baut ne Karte die so schnell wie die RTX 4090 ist und packt 32 GB HBM Speicher drauf. Nvidia würde sowas für 2000 Euro verkaufen. Bin mir sicher bei dem Preis würde sich das auch für AMD lohnen sowas zu fertigen.
 
  • Gefällt mir
Reaktionen: vegagamer
DevPandi schrieb:
Nein, da erliegst du einem Irrtum. Gerade im KI-Bereich ist NVIDIA auf Softwareseite eben nicht der Platzhirsch - zum Glück. Google, Meta und Co haben das Feld von ML bereits vor NVIDIA stark beackert und haben entsprechend ihre Frameworks Hardwareagnostisch umgesetzt. TensorFlow und Co als Framework können mit verschiedenen "Treibern" versehen werden, entsprechend gibt es einen CUDA-Unterbau, aber auch einen Metal - wenn man Apple-Rechner hat - einen DirectML und Co.
Wie sieht das eigentlich unter Linux aus für AMD? DirectML ist da sicher aussen vor und ROCm wird wohl nie produktive Level erreichen. Wie perfomant ist man da mit OpenCL unterwegs?
 
  • Gefällt mir
Reaktionen: Unnu
D0m1n4t0r schrieb:
Ist ja alles schön und gut, aber ich will auch eine Consumer Variante davon als ganz normale Grafikkarte. Mit HBM3.
Nö willst du (vermutlich?) eher nicht. AMD hat ja die computing und gaming Architekturen getrennt. Das hier ist keine RDNA Architektur und nur bedingt für gaming geeignet.
Die werden wie damals Vega das Problem haben , dass sie die theoretische Rechenleistung in Games nicht wirklich umgesetzt bekommen.
 
  • Gefällt mir
Reaktionen: fox40phil und vegagamer
Der Name erinnert mich an
Son-Goku-Ultra-Instinct-Goku-Mastered-ultra-instinct-Dragon-Ball-Dragon-Ball-Z-Kai-Super-Saiya...png
 
  • Gefällt mir
Reaktionen: Poati, Saiba und Makso
DevPandi schrieb:
Viele denken - siehe Zitat - das NVIDIA hier "der" Platzhirsch ist, dank CUDA, das stimmt aber zum Glück nicht.

Nein, da erliegst du einem Irrtum. Gerade im KI-Bereich ist NVIDIA auf Softwareseite eben nicht der Platzhirsch - zum Glück. Google, Meta und Co haben das Feld von ML bereits vor NVIDIA stark beackert und haben entsprechend ihre Frameworks Hardwareagnostisch umgesetzt. TensorFlow und Co als Framework können mit verschiedenen "Treibern" versehen werden, entsprechend gibt es einen CUDA-Unterbau, aber auch einen Metal - wenn man Apple-Rechner hat - einen DirectML und Co.
Das Problem ist aber, dass es Bereiche gibt, in denen AMD leider keiner Alternative zu Nvidia darstellt. Ich arbeite bspw. in der (KI-)Forschung und mir ist bisher nicht ein einziges Paper untergekommen, in dem nicht PyTorch oder Tensorflow mit einer Nvidia Grafikkarte genutzt wird. Das betrifft auch Paper von Google, Microsoft und Co. Evtl. sieht das im Produktiveinsatz anders aus, dennoch würde ich Nvidia definitiv als Platzhirsch sehen.
 
  • Gefällt mir
Reaktionen: dr. lele und ruthi91
Gibt ja noch andere spannende KI-Monster von IBM (das mit dem virtuellen L3 Cache ist krass) oder Cerebras WSE-2.

Das Wettrüsten beginnt gerade erst.
 
  • Gefällt mir
Reaktionen: Mhalekith und vegagamer
Slowz schrieb:
Das Problem ist aber, dass es Bereiche gibt, in denen AMD leider keiner Alternative zu Nvidia darstellt. Ich arbeite bspw. in der (KI-)Forschung und mir ist bisher nicht ein einziges Paper untergekommen, in dem nicht PyTorch oder Tensorflow mit einer Nvidia Grafikkarte genutzt wird. Das betrifft auch Paper von Google, Microsoft und Co. Evtl. sieht das im Produktiveinsatz anders aus, dennoch würde ich Nvidia definitiv als Platzhirsch sehen.
AMD hatte sehr lange eine meiner Meinung nach ziemlich Konservative GPU Sparte. Kein Wunder also, das Nvidia sich hier die Markt gesichert hat. Trotzdem scheint AMD es ja langsam auf die Kette zu bekommen, was sich definitiv positiv auf den Markt und die Technologie auswirken kann. Konkurrenz belebt ja bekanntlich das Geschäft.
 
  • Gefällt mir
Reaktionen: Slowz und Makso
SANDTIGER schrieb:
Puh Schön schön ....nur Superlative bin aber gespannt ob wir HBM(3) nochmal in Consumer Produkten sehen die sollen ja Energie effizienter sein als GDDR Ram
Bei 24GB Ram sollte es schon was bringen wenn es kein Effiziens-Märchen war da bin ich von der 7XXX Generation der Grafikkarten irgendwie ein bisschen enttäuscht.
die größte Stromerspqrnis kommt AFAIR vom Speichercontroller, nicht vom Speicher
 
Zurück
Oben