Bericht AMD MI300A & MI300X: Die neue Instinct-Serie ist ein Meilenstein in vielen Bereichen

pipip schrieb:
Mir ging es hier auch um Monolith vs Chiplet.
Und genau hier verstehe ich nicht wo Du einen Beitrag der Konsolen APUs siehst.
Selbst heute sind alle noch monolithisch.
pipip schrieb:
Wird ein Design auf eine andere Fertigung oder kleinere Fertigung portiert, kann AMD oft die aufwändige Arbeit für I/O dadurch sparen und Manpower in andere Projekte schieben. Zu dieser Aussage gibt es auch ein Video, wo AMD selbst diesen Vorteil als wichtig beschreibt und im Vergleich schneller neue Produkte erlaubt.
Ich denke wir sind uns im Grunde einig. Aber von Berufs wegen stoßen mir unsaubere Bezeichnungen auf. Du verwendest durchgehend Design, obwohl unterschiedliche Konzepte gemeint sind.

Bei der Diskussion über Siena habe ich mich auch erst verleiten lassen nur auf die Chipgröße zu achten. Aus dieser Betrachtungsweise hätte AMD verschiedene IODs für S5 und S6 entwickeln müssen. Aber diese Laiensicht blendet den gesamten Aufwand aus, der nötig ist um eine CPU und ihre Plattform zum Laufen zu bringen. Und beim ins Laufen bringen ist es ein riesen Vorteil, dass die Kommunikation bei allen Varianten von Epyc und Threadripper über denselben IOD läuft.

Aber als Laie kann ich den Vorteil nicht quantifizieren und deshalb wage ich nicht vorherzusagen, ob dies immer so bleibt.

Bisher haben viele erzählt Turin und Turin dense würden den sIOD von Genoa verwenden. Ich bin soeben über eine Tweet gestolpert, der dem widerspricht. Turin soll 128 Zen 5 Kerne in 16 CCDs haben und CXL 2.0 unterstützen. Turin Dense soll 192 Zen 5c Kerne in 12 CCDs haben.

Ich denke Volker oder Micheal werden morgen darüber ausführlich schreiben. Es kommt von einem bekannten Leaker, der schon bei Genoa einiges vorab gezeigt hat.
pipip schrieb:
Und ja, es ging mir um den Strategiewechsel, den du oben mit Rory Read beschreibst. Für mich war der Startpunkt mit den Konsolen-Deals und ohne ein ATI zu mindestens GPU hätte es das nicht gegeben.
Und genau hier sind wir anderer Meinung.

Die Konsolen ware eine Anwendung der Fusion Strategie von der sich AMD nach und nach verabschiedet hat. Im Grund waren die Konsolen APUs die einzige erfolgreiche Anwendung der Fusion Strategie. Beim PC waren die APUs vor Picasso Liebhaberstücke. Die erste uneingeschränkt brauchbare APU war Renoir. Und hier hat AMD die GPU zugunsten der Zen 2 CPU zurück verkleinert.

Man kann Fusion als missglückten ersten Schritt oder als aufgegebene Sackgasse auf dem Weg zur Chiplet-Strategie sehen. Das ist müssig.

Aber der eigentliche Beginn der Chipletstrategie waren der Zen Core und die GPUs als Building Blocks und das Infinity Fabric als der Kit der die Building Blocks zusammen hält. Durch dieses Konzept und dire klaren Schnittstellen war es nicht mehr notwendig CPU- und GPU-Design eng zu koppeln. IMO war das der Initiator für das Gründen der RTG.

Aber ebenso wichtig war, dass Mark Papermaster und Lisa Su dafür gesorgt haben, dass bei AMD eine andere Entwicklungsmethologie implementiert wurde. Das war die Aufgabe von Jim Keller. Anstatt nur auf die nächste CPU zu schauen hat AMD begonnen in Roadmaps zu entwickeln.
pipip schrieb:
Du meinst so wie Intel?
Böse formuliert, es ist grundsätzlich eine schlechte Idee etwas so zu machen wie Intel.

Mir schweben da eher Apple und Arm vor. Oder Qualcomm die für wenig Geld sehr viel IP von AMD gekauft haben. Und dann gnädiger Weise auch noch ein paar Leute übernommen haben.

AMD hätte sich auch schon ein paar Jahre früher mit GPUs beschäftigen können.

IIRC hat Intel angefangen von "CPUs und GPUs kombinieren" zu reden und dann ist bei AMD die Panik ausgebrochen. Die Folge war ein viel zu teurer Panikkauf. IMO war AMD beim Kauf von ATI nur klar wir brauchen GPUs.

Und noch vier Anmerkungen
  1. Hätte AMD den Kauf von ATI mit eigenen Aktien abwickeln können, wäre alles halb so wild gewesen.
  2. Es ist gut möglich, dass diese gemeinsame Projekte für Microsoft und Sony geholfen haben die internen Barrieren zwischen AMD und ex-ATI einzureißen. Ich habe von verschiedenen Leuten gehört, dass die Mannschaft von ATI nicht begeistert war von AMD übernommen zu werden. Viel Energie ging im Clash der Kulturen verloren.
  3. Wie hätte sich ATI ohne die Übernahme entwickelt? Hätte es ohne die Übernahme denselben Aderlass gegeben? Was fiel bei ATI wegen Fusion unter den Tisch?
  4. Die Integration von Xilinx läuft hervorragend. Sie ist bisher ein Musterbeispiel einer erfolgreichen Übernahme. Aber das vor allem damit zu tun, wie Lisa Su und Victor Peng das vorbereitet und umgesetzt haben.
 
  • Gefällt mir
Reaktionen: pipip
Skysnake schrieb:
SysCL, welches die national Labs von den Anbietern fordern un nicht wieder wie bei nVidia in die Hersteller Lockin Falle zu tappen
Ich kenne mich da nicht aus, habe aber aus Jux und Dollerei mich durch einige Foliensätze geklickt.
Das ganze ist schon ein bisschen mehr als SysCL vs HIP vs Cuda.

Da geistert schon noch einiges anderes herum, so wie openMP.
 
ETI1120 schrieb:
Du hast recht, dass heute AMD profitabler als Intel ist, hat sehr viel mit den Fehlern bei Intel zu tun. Wenn Intel optimal gearbeitet hätte, wäre es für AMD sehr viel schwerer geworden als es ohnehin war. Aber Mal ganz ehrlich, wann hat Intel dauerhaft optimal gearbeitet?*)

[...]

Somit die gescheiterte Prozessentwicklung bei ist nur eine Fassette des Versagens.
Dem eigenen Selbstverständnis nach ist Intel schon immer ein Halbleiterprozessentwickler und -produzent, der mehr oder weniger notgedrungen eigene integrierte Schaltkreise entwickelt, damit er die Fabriken profitabel produzieren lassen kann.

Wenn so einem integrierten Unternehmen dann im zentralen Kompetenzbereich eine Dekade lang nichts gelingt, fällt es mir schwer den CPU-Entwicklern die Schuld zu geben, weil sie ihre Arbeit nur auf Basis schlussendlich falscher Prozesscharakteristika gemacht haben können.

P1272 sollte ursprünglich 2013 auf den Markt kommen. P1274 war für 2015 avisiert. P1276 für 2017. Das wäre dann die direkte Konkurrenz für den ersten Ryzen gewesen, wie viel mehr von ihren langsamen Kernen hätte AMD da aufbieten müssen, um wenigstens Cinebench xT zu gewinnen? Wie viel weiter weg wären sie in Anwendungen und Spielen gewesen?

Stattdessen war es 2017 immer noch P1272, in dem Intel CPUs produzierte, und P1274 sollte erst 2021 mit Alder Lake auf dem Desktop ankommen.

Das sind volle Entwicklungszyklen ganzer Porzessorgenerationen, die sich in Luft aufgelöst haben weil die Prozessabteilung nicht liefern konnte.
Ergänzung ()

pipip schrieb:
Der Punkt, dass durch die Investition AMD sogar überlebt hat spricht für die Investition.
Nur wenn man bewusst ignoriert, was AMD ohne die massive finanzielle Belastung der Übernahme im Kerngeschäft hätte besser machen können.

Mir persönlich fällt es zum Beispiel schwer zu glauben, dass eine vernünftig finanzierte Entwicklungsabteilung mit einem Mindestmaß an Talent sich den Markt in den Jahren 2006+ anschaut und dann 2011 mit Bulldozer auf den Markt kommt.
Ergänzung ()

pipip schrieb:
Zen 2, mit Leerzeichen.
https://www.amd.com/de/technologies/zen-core
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pipip
ChipsAndCheese über die MI300
https://chipsandcheese.com/2023/12/17/amds-cdna-3-compute-architecture/

incurable schrieb:
Dem eigenen Selbstverständnis nach ist Intel schon immer ein Halbleiterprozessentwickler und -produzent, der mehr oder weniger notgedrungen eigene integrierte Schaltkreise entwickelt, damit er die Fabriken profitabel produzieren lassen kann.
Hört sich witzig an. Aber stimmt es auch?

In den 80iger Jahren des letzten Jahrhunderts wurde erzählt Siemens sei eine Bank mit einer Elektroabteilung. Das war witzig, und hat die Trägkeit von Siemens gut charakterisiert, war faktisch aber falsch.

Intel konnte sich den Luxus einer eigene Halbleiterproduktion nur wegen der hohen Margen der CPUs leisten. Diese hohen Margen haben die teure Prozessentwicklung finanziert.

Was ich von verschiedenen Seiten gelesen habe, dass die Prozessleute eine ordentliche Arroganz gegen den Rest der Firma an den Tag gelegt haben. Und das was Du schreibst könnte das Verständnis der Prozessleute gewesen sein.

Ganz unbegründet war es nicht, denn die guten Prozesse waren bis 14 nm ein massiver Wettbewerbsvorteil gegen AMD und die ganzen RISC-Anbieter.

incurable schrieb:
P1272 sollte ursprünglich 2013 auf den Markt kommen. P1274 war für 2015 avisiert. P1276 für 2017.
Pläne ändern sich.

Bis 14 nm hat Tick Tock eigentlich gut funktioniert. Wobei es AFAIK auch bei 14 nm eine Verschiebung von einem halben Jahr gab.

TechInsight stellt das Drama wie folgt dar:

pasted_image002.png

Es gab 4 Anläufe und erst im 4. lief es einigermaßen rund.


incurable schrieb:
Stattdessen war es 2017 immer noch P1272, in dem Intel CPUs produzierte, und P1274 sollte erst 2021 mit Alder Lake auf dem Desktop ankommen.
Und es war eben nicht nur ein Problem mit einem Prozess Intel hing an einem fundamentalen Problem fest, dass alle folgenden auch betroffen. Die Reports von techInsight enthalten mehr Daten, Scotten Jones wird sich etwas dabei gedacht haben dass er in der Tabelle den CCP zeigt.

Intel hat offensichtlich mit dem CPP von 54 nm Probleme gehabt. Alder Lake hat 60 nm.
Es wäre vielleicht klever gewesen schon bei der 2. Generation zurück zu skalieren.

incurable schrieb:
Das sind volle Entwicklungszyklen ganzer Porzessorgenerationen, die sich in Luft aufgelöst haben weil die Prozessabteilung nicht liefern konnte.
Ach das hört sich dramatisch an. Mir ist nicht bewusst dass der Welt etwas entgangen ist.

Vor dem Knall mit 10 nm war es doch üblich, dass Intel die nächste Architektur mit 40 bis 50 % Leistungszuwachs angekündigt hat und dann sind 5 % herausgekommen.

Intel stand wenigstens der 14 nm Prozess zur Verfügung.
Und Intel hatte einen gewaltigen Marktanteil und volle Kassen.

incurable schrieb:
Mir persönlich fällt es zum Beispiel schwer zu glauben, dass eine vernünftig finanzierte Entwicklungsabteilung mit einem Mindestmaß an Talent sich den Markt in den Jahren 2006+ anschaut und dann 2011 mit Bulldozer auf den Markt kommt.

Bulldozer ist lange nach der Übernahme auf der Markt gekommen. Damit wurde Bulldozer durch die Übernahme beeinflusst, über das Ausmass können wir nur spekulieren.

Ob mit mehr Geld bessere Entscheidungen möglich gewesen wären? Möglich.
Der Witz ist aber das Zen mit weniger Geld entwickelt wurde, von praktisch denselben Leute die zuvor Bulldozer entwickelt haben. Jim Keller hat klargestellt, dass er an der Entwicklung von Zen nicht direkt beteiligt war.
 
  • Gefällt mir
Reaktionen: bad_sign
ETI1120 schrieb:
Pläne ändern sich.
Ja, nur limitiert einen Dekade voller Verschiebungen in der Prozessentwicklung die Fähigkeiten der Prozessorabteilung derart, dass es mir schwer fällt, dort erhebliche Mitschuld an der Marktsituation Intels zu verorten.

Wenn sich ein Gruppe 2010 hinsetzt und die Entwicklung eines Kerns für P1274 beginnt, der im Endprodukt 2016 auf den Markt kommen soll, kann sie 2014, 2015, 2016, 2017, 2018 und 2019 nur begrenzt Sinnvolles tun, weil durch die Probleme in der Prozessentwicklung nur Pest (Verschiebung) und Cholera (begrenzte Rückportierung) als Optionen bleiben.

ETI1120 schrieb:
Vor dem Knall mit 10 nm war es doch üblich, dass Intel die nächste Architektur mit 40 bis 50 % Leistungszuwachs angekündigt hat und dann sind 5 % herausgekommen.
Dafür hätte ich gern entsprechende Verweise.

ETI1120 schrieb:
Intel stand wenigstens der 14 nm Prozess zur Verfügung.
Und Intel hatte einen gewaltigen Marktanteil und volle Kassen.
Schau Dir an, was P1274 am Ende seiner Laufzeit liefern kann. Da hätte Intel nach eigener Planung zur Vorstellung der ersten AMD Ryzen Prozessoren sein sollen.

Wie viel mehr Silizium hätte AMD dann verbrennen müssen, um mit Zen einen Fuss in den Markt zu bekommen? Ich hab erheblich Zweifel, dass AMD das finanziell als eigenständig überlebt hätte. (da landen wir dann in Szenarios, in denen Intel aus kartellrechtlichen Gründen der Übernahme AMDs mit Fortführung der x86-Lizenz zustimmen muss)

ETI1120 schrieb:
Bulldozer ist lange nach der Übernahme auf der Markt gekommen. Damit wurde Bulldozer durch die Übernahme beeinflusst, über das Ausmass können wir nur spekulieren.
Worüber wir nicht spektulieren müssen ist was auf dem Markt war: AMD konnte ab spätestens Juli 2006 Conroe/Merom/Woodcrest kaufen und analysieren.

Wie man trotzdem fünf+ Jahre später mit Bulldozer auf den Markt kommen kann, kann ich mir nicht anders als durch fehlendes Geld und/oder Talent erklären.
 
incurable schrieb:
Ja, nur limitiert einen Dekade voller Verschiebungen in der Prozessentwicklung die Fähigkeiten der Prozessorabteilung derart, dass es mir schwer fällt, dort erhebliche Mitschuld an der Marktsituation Intels zu verorten.
...
incurable schrieb:
Worüber wir nicht spektulieren müssen ist was auf dem Markt war: AMD konnte ab spätestens Juli 2006 Conroe/Merom/Woodcrest kaufen und analysieren.

Wie man trotzdem fünf+ Jahre später mit Bulldozer auf den Markt kommen kann, kann ich mir nicht anders als durch fehlendes Geld und/oder Talent erklären.
Dazu drei Dinge. Erstens:
Es ist schon seltsam herumzuheulen, dass die armen Intel CPU-Architekten mit alten Prozessen arbeiten müssen, andererseits zu ignorieren, dass die CPU-Architekten AMD damit 2 Jahrzehnte zu kämpfen hatten.

Zen erschien auf einem 20 nm FinFET-Prozess den Samsung als "14 nm" getauft hat. Und das war der beste Prozess den AMD in den letzten 10 ... 15 Jahren hatte.

Ende der 2000er war die Chipentwicklung und -Fertigung bei AMD abgehängt.
Die AMD Chipentwickler haben versucht durch ein radikales Neudesign dieses Manko zu umschiffen. Sie sind damit gescheirt. Einerseits weil einige Design Entscheidungen falsch waren andererseits, weil die Prozesse auf denen Bulldozer gefertigt schlecht waren. Miserabler Yield, schlechte Frequenzen viel zu hoher Verbrauch.

Zweitens
Das Dir nur die zwei Dinge einfallen, ist Dein Problem.

Drittens
Bist Du vom Fach? Chipentwickler? Rhetorische Frage

Falls nicht, steht es Dir nicht zu über das Talent von Chipentwicklern zu urteilen.




Und zum Schluß eine Frage, wenn bei der CPU-Entwicklung von Intel alles OK war, warum hat Intel Jim Keller angeheuert?
 
Ich hoffe, dass die MI-Karten auch angenommen werden. Vielleicht ist das dann endlich mal ein Schritt weg von CUDA. CUDA sollte endlich sterben. Geschlossene properitäre Standards sind einfach Mist. Vielleicht kann AMD ja den EPYC-Erfolg wiederholen. Ich hoffe nur, dass sie dann nicht so bequem und mies wie mit Threadripper werden. Das HEDT-Segment ist seitdem ja eher tot. (Nicht, dass es unter Intel besser war)
 
Äußerst spannende Entwicklung seitens AMD in Hard- wie Software. Ich selbst arbeite zwar nicht mit KI, weder privat noch beruflich, aber angesichts des enormen Hypes und NVIDIAs erneuter Dominanz kann hier starke Konkurrenz nur ein Zugewinn sein. Vor allem für den Kunden.
 
Zurück
Oben