News AMD Instinct MI500: CDNA 6 erscheint 2027 mit HBM4E, MI455X debütiert mit Helios

@ETI1120 Halbe Wahrheit. Er war nur Rückläufig, aufgrund Smartphones, Tablets die einen Teil davon ersetzt haben aber d.h. nicht das er stirbt, nur der Markt komplett durchrungen ist und kein weiteres Marktpotential mehr da ist, außer alle zeugen wie Wild noch Kinder, dann sehen wir in 16 Jahren evtl. ein kleines Wachstum... :daumen:

Der Bedarf an PCs bleibt stetig Jahr für Jahr (gut zusehen an der Entwicklung der letzten 10 Jahre, aber ca. 2014 nahezu gleich) und wird wenn überhaupt nur ein wenig sinken, solange keine andere Technologie diesen ablöst. P.s. ich schließe damit Notebooks mit ein, die für mich auch ein PC sind, halt Mobil....
Gaming Pcs sind iwo da drin und könnten sterben, was aber den PC himself nicht unbedeutend macht.

1767871387197.png
 
  • Gefällt mir
Reaktionen: qqALEXpp und Holylemon
TausendWatt schrieb:
@ETI1120 Halbe Wahrheit. Er war nur Rückläufig, aufgrund Smartphones, Tablets die einen Teil davon ersetzt haben aber d.h. nicht das er stirbt, nur der Markt komplett durchrungen ist und kein weiteres Marktpotential mehr da ist, ]
Ich habe nicht geschrieben dass der PC stirbt.

Bei Konsumer gibt es zwei Tendenzen. Erstens behalten sie ihre PCs länger zweitens verzichten immer mehr Leute auf einen PC.

Je nach Zahlenlieferant sind übrigens die Tablets bei den PC dabei.

Wenn Du aus den PC Zahlen noch die ganzen Business PC rausrechnest, wird die Statistik nicht besser. Dort haben sich die Erneuerungszyklen verlängert, wie sich die Anzahl der PC Arbeitsplätze weiß ich nicht, aber sehr stark werden sie nicht gesunken sein.
 
  • Gefällt mir
Reaktionen: JarlBallin und Lendi
und es ist stark davon auszugehen, dass hinter dem Leistungszuwachs um den Faktor 1.000x der Vergleich von Datenformaten steckt, den die alte MI300X-Plattform noch gar nicht unterstützt.
Ist doch bei KI-Beschleunigern mittlerweile normal. Das wird bei Nvidia nicht anders gehandelt.
 
Zu dem Faktor 1000
Im Zen 6 Thread im Anandtech Forum hat ein User es wahrscheinlich gut getroffen.

AMD vergleicht wohl einen Einschub mit 8 GPUs bei MI300 mit einem ganzen Rack bei MI 500.

Zu den Performance Angaben von AMD für MI400 und MI500: Einfach ignorieren.

Bei der MI350 hat AMD Faktor 35 angekündigt. Das gab es auch für einen Sonderfall. In der Regel war es Faktor 3 und ob da die Software wirklich rausgerechnet war?
 
Die 1000x von MI500 vs. MI300X sind ganz "vernünftig". Mein Post dazu aus dem Anandtech Forum:
https://forums.anandtech.com/threads/zen-6-speculation-thread.2619444/page-338#post-41556142
I think it is rather simple: 8x GPU MI300X cluster vs. Full MI500 rack
MI300X delivers 1.3 PFLOPS of FP16 (matrix calculations). A MI300X platform is a 8x GPU cluster, so this results in 10.4 PFLOPS.

MI455X will bring FP4 support and at Helios rack level this results in 3 ExaFLOPS. Now double the amount of GPUs per rack for MI500, make the GPUs itself 1.75x faster (plausible if e.g. increasing GPU size by using 3x or 4x base Die tiles instead of 2x) and we land at 10.5 ExaFLOPS per rack.

10.5 ExaFLOPS / 10.4 PFLOPS = 1000x ;)
ETI1120 schrieb:
AMD vergleicht wohl einen Einschub mit 8 GPUs bei MI300 mit einem ganzen Rack bei MI 500.
AMD schreibt bei ihren Fussnoten "MI300X system vs. MI500 system). Da man das jeweils als Einheit sieht, ist das bei MI300X ein 8x GPU cluster und bei MI500 wohl das ganze Rack.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ETI1120
ETI1120 schrieb:
wie sich die Anzahl der PC Arbeitsplätze weiß ich nicht, aber sehr stark werden sie nicht gesunken sein.

Geht dort auch nicht alles richtung Terminal. Klar im kleine Startup ist es vielicht noch Quatscht. Aber bei größeren DrohnenBüros steht nur noch nen "HubDock", mit hdmi usb und rj45 anschluss, der rest wird virtuel vom Server gestreamt?!
 
Zuletzt bearbeitet:
lynx007 schrieb:
Geht dort auch nicht alles richtung Terminal.
Was ich so mitbekomme geht es vor allem in Richtung Notebook.

Lohnt sich überhaupt eine spezielle Hardware für Terminals und laufen die nicht auch unter PC?
 
Ja, VDI, also virtuelle Desktops, sind inzwischen weit verbreitet.
Haben wir auch im Einsatz. Aber aktuell rechnen wir das gut durch ob die noch sinnvoll sind. Denn eine VDI Maschine ist in einer Gesamtrechnung deutlich teurer als ein Laptop. Fuer normale Officemaschinen rechnet sich das eigendlich ueberhaupt nicht.
Fuer Rechen- und/oder Datenintensive Ablaufe bei denen andererseits die Latenz nicht so kritisch ist, da lohnt es sich noch.
 
ETI1120 schrieb:
Die CES ist eben nicht so borniert wie es die CeBIT war. Man lässt die Aussteller das zeigen was diese zeigen wollen.
Eben. Eine Messe, deren Organisatoren zu den "ewig gestrigen" zählen und den Herstellern vorschreiben wollen, was sie ausstellen "dürfen", geht eben unter.

Die CES ist heute eine der beiden großen IT-Messen.

ETI1120 schrieb:
Der PC Absatz ist seit 2010 rückläufig. Der PC buesst an Bedeutung ein.
Auch das spiegelt die Fakten wider, statt reinem Wunschdenken. 👍
Ich finde das auch nicht toll, aber jammern hilft nicht.

Was man selbst tun kann, ist in der Firma oder privatem Umfeld auch die Vorteile von PCs zu erwähnen. Diese Vorteile sind den Leuten meist gar nicht bewusst und werden durchaus gesehen.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Was ich so mitbekomme geht es vor allem in Richtung Notebook.
Richtig, aber bei uns dreht sich das ganze wieder. Wir wollten Citrix zurückbauen aufgrund der Notebooks, allerdings wenn es weiter teuer wird, bauen wir wieder Terminal aus.
ETI1120 schrieb:
Lohnt sich überhaupt eine spezielle Hardware für Terminals und laufen die nicht auch unter PC?
Ja ncs z.B. von wyse, kleine atom "pcs" die nur die virtuelle machine auf den schirm streamen. Ca. 150 euro pro stück. Halten ewig und darüber hinaus ist das warten/pflegen der worker einfacher als die Notebooks... Abgesehen davon dass ich jedem die Ressourcen zuweisen kann die er auch wirklich braucht.
 
@ETI1120

Ne, beim PC sind die Daten Lokal und lässt sich konfigurierne und anpassen. Daher auch der Name Personal PC. Das ist beim Zero oder Thinclient nicht der Fall. Fat client ist vermutlich ein Hybrid, wobei das ding vermutlich auch icht lokal konfuguriert werden kann. Aber die übergänge sind natürlich fliesend, insbesondere wen man Sysrechte usw dazu holt.

Aber so richtig Sparen tut man da auch nichts. Da geht es vermutlcih eher um Sicherheit und eine Kontrollieren Arbeitsumgebung.
1767894526159.png


Beispiel fürn klassischen Zeroclient
1767894449386.png
 
lynx007 schrieb:
Aber so richtig Sparen tut man da auch nichts. Da geht es vermutlcih eher um Sicherheit und eine Kontrollieren Arbeitsumgebung.
D.h. aber direkt die teuren ausgesucht. Wir tauschen die alle 8-10 Jahre, da kannst dann 2x Notebook pro nc in dem selben Zeitraum rechnen exkl. Lizenzen für VPN, Antivirus, Office, Wartung etc.
Das größte Sparpptential liegt dabei im Administrieren, Verwaltung. Ein Image angepasst und geupdatet und zack fertig und jeder Worker ist auf dem neuesten Stand.... Nix Verteilungsringe, bilden Monitoring, Troubleshooting.
 
  • Gefällt mir
Reaktionen: lynx007
lynx007 schrieb:
Ne, beim PC sind die Daten Lokal und lässt sich konfigurierne und anpassen.
Relevante Daten haben lokal nichts verloren.

Ist natürlich bei einem Notebook blöd, weil man auch offline arbeiten will.
Bei meinen eigenen Dokumenten hat das Synchonisieren nie funktioniert. Irgendwann habe ich es wieder bleiben lassen und automatische Lösungen mag ich nicht. Meine erste Erfahrung mit einem Computer war, dass die Datei gerade dann gesichert wurde, als ich sie definitiv nicht speichern wollte.

Nach dem mein letztes Notebook abgeraucht ist und alle lokalen Daten futsch waren*), habe ich für mich ein Subversion-Repository als Lösung gefunden. Das klappt für mich tadellos.

*) Weg war nur eine einzige relevante Datei, aber die hat mich sehr geärgert.

Konfigurieren kann man als Anwender nur das was die IT nicht zusperrt. So kann ich bei meinem Firmennotebook nicht einstellen, dass das Notebook bei Deckel zu in den Ruhezustand geht. Beim Notebook das ich von einem Kunden habe geht das. Umgebungsvariablen setzen wird meist auch blockiert.

Terminals sind eine Lösung für feste Arbeitsplätze. Und wenn man Standardsoftware draufpackt.

Ich kenne Softwarepakete bei denen auf VM oder Terminal automatisch die Floating Lizenz fällig wird. Und man man anstatt X Mal Einzelplatzlizenz X Mal die Floating Lizenz bezahlen muss, spielen die Kosten für die Hardware oft keine Role mehr.

In meiner Welt sind Notebooks Standard, manche Anwender mit besonderen Anforderungen brauchen noch dicke Kisten und die haben einen PC. Terminals sind die Ausnahme. Das mag in anderen Umgebungen anders aussehen
 
basix schrieb:
Die 1000x von MI500 vs. MI300X sind ganz "vernünftig".
Na ja was so am Vergleichen von Äpfeln und Birnen vernünftig ist.

Es kommt ja nur noch darauf an möglichst hohe Zahlen zu nennen. Und wir sind ja schon froh dass nicht FP4 mit FP64 vergleichen wurde, das gäbe noch "bessere" Zahlen.

basix schrieb:
AMD schreibt bei ihren Fussnoten "MI300X system vs. MI500 system).
Es ist sogar noch deutlicher. Die Endnote zum 1000X Vergleich:
MI500-001: Based on engineering projections by AMD Performance Labs in December 2025, to estimate the peak theoretical precision performance of AMD Instinct™ MI500 Series GPU powered AI Rack vs. an AMD Instinct MI300X platform. Results subject to change when products are released in market.
Den Einschub mit 8 MI300X hat AMD als MI300X Plattform bezeichnet.


Und der Faktor 10 Performance für die MI455X im Vergleich zur MI355X ist natürlich nicht die reine Rechenleistung. Der Vergleich ist Plattform zu Rack, und da fließt natürlich auch der viel größere Speicher des Racks mit ein. Man muss nur ein Modell wählen das nicht in den Speicher der Plattform passt, ...

AMD hat ja schon letztes Jahr gesagt, dass die reine Rechenleistung bei FP4 nur um den Faktor 2 zunimmt.

basix schrieb:
Da man das jeweils als Einheit sieht, ist das bei MI300X ein 8x GPU cluster und bei MI500 wohl das ganze Rack.
Als ich Deinen Post gelesen habe, war mein erster Gedanke, das ist es.

Es ist natürlich ein schiefer Vergleich, aber man ihn schönreden, da man ja die jeweils größte Konfiguration vergleicht.

Ein anderer Post auf Anand Tech hat mich dazu annimiert die Venice CPU bei den MI430X und MI440X Einschüben zu suchen:

450X​

1767907596260.png

Hier ist Venice mit abgebildet, obwohl Venice im vorderen Teil des Einschubs sitzt.

440X Plattform​

1767907380604.png

Hier ist kein Venice zu sehen

MI300X Plattform​

1767910599523.png

Aber bei der MI300X Plattform waren die Prozessoren auch nicht auf demselben Board wie die GPUs.

430X​

1767907307830.png

Auch hier ist was Venice angeht Fehlanzeige. Aber auch hier ist wie bei der MI440X nur ein Mainboard und nicht der ganze Einschub zu sehen. Es ist also auch wahrschenlich dass Venice auf einem anderen Board sitzt.

Außerdem sind diese 4 GPUs nicht so wie die 4 APUs bei der MI300A angeordnet.

Die 440X ist ein Update für die Infrastruktur der MI300X Plattform.

Die 430X ist was neues.

Die Bilder der MI400 sind aus dem Slidedeck zur CES Keynote und das Bild der MI300X Plattform ist direkt von der AMD Website
 
  • Gefällt mir
Reaktionen: basix
stefan92x schrieb:
Die Unternehmen informieren uns Consumer darüber, wieso es keine Produkte für uns gibt.

Ja doch schon... das Open Compute Project ist genau dafür ja da, um neue Standards zu definieren, und manche haben sich auch schon sehr etabliert (z.B. die Konstruktion mit OAM-Modulen statt PCIe-Karten). Neue Rack-Größen sind dann nur konsequent. Und wenn man Richtung Supercomputing schaut ist man da auch früher schon öfter von Standards abgewichen, Helios steht durchaus in der Tradition.

Hier stand ein bisschen mehr: https://www.servethehome.com/amd-helios-mi450-rack-at-ocp-summit-with-a-different-version-from-meta/
"Die Unternehmen informieren uns Consumer darüber, wieso es keine Produkte für uns gibt." Die gibt's für uns schon auch, sofern man die nötigen Millionen hat, um sich so ein Rack in den Raum zu stellen, gleich gegenüber dem Weinkeller mit den Château Lafite Rothschild Jahrgängen.
 
MichaG schrieb:
die 31 TB an HBM4 sollen vereint für 43 TB/s Durchsatz sorgen.
Das stimmt so nicht. Die Scale Up Out Bandbreite ist das Ethernet Netzwerk zwischen mehreren Helios Racks. Für die Speicherbandbreite wäre das viel zu niedrig, die dürfte eher 30fach höher ausfallen.

Selbst für die Scale-Up Bandbreite, also das Ethernet innerhalb des Racks, wären 43TB/s viel zu niedrig.

In früheren Folien standen 19,6Tb/s Speicherbandbreite pro Chip, also 1411TB/s aggregiert für 72 GPUs in Helios. Das wäre also trotz +50% mehr HBM Stacks etwa 11% unterhalb von Nvidias Rubin, weswegen man es vermutlich von der Folie gestrichen hat.

In diesen Folien gab es auch noch Angaben zur Scale Up Bandbreite, also des Ultra Accelerator Links. Der nutzt den neuen Ultra Ethernet Standard den man mit Broadcom Switches gebastelt hat und ist erstmals ein gegenstück zu NVlink und NVswitches von Mellanox. 260tb/s sollten die Gegenstücke zu NVlink bringen und damit genau soviel wie man bei nvidia vermutete.
 
Zuletzt bearbeitet:
davidzo schrieb:
Die Scale Up Bandbreite ist das Ethernet Netzwerk zwischen mehreren Helios Racks.
Du hast Dich verschrieben, hier muss Scale Out stehen.

Und so hat es AMD auch angegeben:

1767989367642.png

davidzo schrieb:
Für die Speicherbandbreite wäre das viel zu niedrig, die dürfte eher 30fach höher ausfallen.Selbst für die Scale-Up Bandbreite, also das Ethernet innerhalb des Racks, wären 43TB/s viel zu niedrig.
Die 43 TB/s passen aber nicht so richtig zu den 300 GB/s Scale Out Bandbreite die AMD auf dem FAD je GPU angegeben hat.

davidzo schrieb:
In früheren Folien standen 19,6Tb/s Speicherbandbreite pro Chip, also 1411TB/s aggregiert für 72 GPUs in Helios. Das wäre also trotz +50% mehr HBM Stacks etwa 11% unterhalb von Nvidias Rubin, weswegen man es vermutlich von der Folie gestrichen hat.
Schauen wir Mal was tatsächlich ausgeliefert wird.

Es gab ja ein riesen Aufriss wegen den 11 Gbps bei den HBM Stacks. Wer das liefern kann und wer angeblich nicht.

Ich bin Mal gespannt wie sich die 11 Gbps auf den Verbrauch auswirken und ob man auch Zahlen zum Idle-Verbrauch der HBM4 Stacks mitbekommt. Die 20 bis 25 W Idle Verbrauch bei einem HBM3E Stack finde ich schon krass.

davidzo schrieb:
In diesen Folien gab es auch noch Angaben zur Scale Up Bandbreite, also des Ultra Accelerator Links. Der nutzt den neuen Ultra Ethernet Standard den man mit Broadcom Switches gebastelt hat und ist erstmals ein gegenstück zu NVlink und NVswitches von Mellanox. 260tb/s sollten die Gegenstücke zu NVlink bringen und damit genau soviel wie man bei nvidia vermutete.
Das passt: AMD hat folgende Angaben gemacht:
Powered by the AMD CDNA™ architecture, each MI450 Series GPU delivers up to 432 GB of HBM4 memory and 19.6 TB/s of memory bandwidth, providing industry-leading capacity and bandwidth for data-hungry AI models. At rack scale, a “Helios” system with 72 MI450 Series GPUs delivers up to 1.4 exaFLOPS of FP8 and 2.9 exaFLOPS of FP4 performance, with 31 TB of total HBM4 memory and 1.4 PB/s of aggregate bandwidth — a generational leap that enables trillion parameter training and large scale AI inference.

“Helios” also features up to 260 TB/s of scale-up interconnect bandwidth and 43 TB/s of Ethernet-based scale-out bandwidth, helping ensure seamless communication across GPUs, nodes, and racks.

Aber die ganzen Hardwarezahlen sind eher uninteressant, wenn AMD die Flaschenhälse in der Software nicht beseitigt.
 

Anhänge

  • 1767989261560.png
    1767989261560.png
    200,4 KB · Aufrufe: 25
  • Gefällt mir
Reaktionen: davidzo
Ein Interview von PC World mit Andrej Zdravkovic


Es geht darin hauptsächlich um Redstone, am Schluss auch um ein neuen Feature.

Aber folgende Stelle passt zu einigen beiträgen hier:
Andrej Zdravkovic at 14:50:
It's so I know that, that gamers are looking at AI and saying, okay, is, all this AI is bumping up the price of our graphics chips. So therefore gaming becomes more expensive. Well, honestly, that's true.
 
ETI1120 schrieb:
Die 43 TB/s passen aber nicht so richtig zu den 300 GB/s Scale Out Bandbreite die AMD auf dem FAD je GPU angegeben hat.
Die 43TB/s beim Scale-Out (also ins Backend Netzwerk) kommt wohl durch:

72x GPU
3x Vulcano (AI NIC mit je 800Gbps) per GPU
Full Duplex

72 GPU x 3 Vulcano= 216 Vulcano per Helios
216 x 0.8 Tbps = 172,8 Tbps
172,8 Tbps / 8 = 21,6 TB/s
21,6 TB/s x 2 = 43,2 TB/s

Die Kommunikation über die Infinity Fabric und auch der Scale-Up, sind hier wesentlich schneller.
 
Drizz schrieb:
Die 43TB/s beim Scale-Out (also ins Backend Netzwerk) kommt wohl durch:
Es bleibt dabei dass die Angaben 300 GB/s (3 x 100 GB/s) je CPU und 4,32 TB/s insgesamt nicht zusammen passen.

Du hast elegant auf der einen Seite einen Faktor 2 eingefügt um das zu kompensieren.
 
Zurück
Oben