Bericht AMD MI300A & MI300X: Die neue Instinct-Serie ist ein Meilenstein in vielen Bereichen

pipip schrieb:
Somit behaupte ich, der nächste Schritt war mit AMD ein APU Design für Konsolen
Wir treffen uns also in der Mitte bei der 360S, und sind uns in diesen Punkt einig, dass die 360 entscheidend wichtig war, damit AMD den Weg zu Konsolen-APU gehen konnte.
pipip schrieb:
Somit ja komplizierter durch viel "kleben", aber vllt dafür besser verfügbar.
Mein letzter Wissensstand war, dass Advanced Packaging knapper ist als die Wafer an sich. Was du vermutest, würde dem halt widersprechen. Kann aber durch die jeweilige Vertragssituation natürlich im Vergleich von Nvidia und AMD zutreffen.
 

incurable

Dass es AMD heute ohne Kauf von ATI vermutlich nicht mehr geben würde und AMD schon eher ein Pionier im Bereich der APUs ist. Sprich ohne ATI hätte es mit AMD vllt bei Bulldozer geendet.
 
pipip schrieb:
Ich stelle da jetzt die gewagte Behauptung auf, ohne den Kauf gäbe es AMD heute nicht mehr.
Wir bewegen uns nun in einen anderen Zeitstrahl.

Fakt ist dass die Kosten der Übernahme AMD sehr belastet haben. AMD hat sie in bar beglichen und musste dafür Kredite aufnehmen. Die Zinszahlungen haben AMD ausgeblutet.

Es war eine der großen Leistungen der neuen Führungscrew die 2011 gekommen ist, die im Grunde gescheitere Übernahme dennoch zu retten.

Natürlich haben die Einnahmen aus den Konsolendeals AMD Zeit verschafft. Aber AMD hat alle Tricks angewendet, die ein sterbendes Unternehmen anwenden muss um Cash zu besorgen.

Und letztendlich wurde AMD durch Privatinvestoren gerettet die auf Zen gewettet haben.
pipip schrieb:
Das selbe gilt für den Abstoß der eigen Fabs.
Das steht wohl außer Frage. Aber leider musste AMD Verträge abschließen, die AMD auf Dauer mehr gekostet haben als sie durch den Verkauf eingenommen haben. Die abgrundtief schlechte Qualität der Chips gar nicht berücksichtigt.

pipip schrieb:
Der Deal mit MS und Sony bezüglich Konsolen APUs, hat AMD zwar nicht viel verdienen lassen,
Das Geld was AMD hier verdient hat, ging halt drauf, um den Laden am Leben zu erhalten.
pipip schrieb:
Auch hier bin ich überzeugt, mit den Konsolen Deals hat man mehr und mehr planbare Fertigungsstraßen bekommen, worauf AMD Designs abstimmt worden sind und das eben bei TSMC.
Welche Fertigungsstraßen? Halbleiterfabriken haben keine Fließbänder. Die einzelnen Fertigungsschritte haben unterschiedliche Zeitkonstanten somit ist eine lineare Fertigung nicht möglich.

pipip schrieb:
Sprich diese Deals dürfte auch Lisa Su bewegt haben, ihre All-In-Wette auf TSMC zu setzen.
Als die neue Führungscrew angeheuert wurde, haben die sich AMD ganz genau angesehen. Ich bin davon überzeugt, das erste was denen klar war, dass sich AMD von GF trennen muss. Sie haben doch gesehen was TSMC liefert und was GF liefert. Und sie haben gesehen wie TSMC Probleme löst und wie GF Probleme eben nicht löst. (Ich gab mich damals der Illusion hin, dass alles gut wird und dass AMD die GPUs von TSMC zu GF bringt.)

Natürlich hatte AMD Verträge und konnte nicht so einfach zu TSMC wechseln.
pipip schrieb:
So war vllt ATI damals nicht der Gewinnbringer, aber auf lange Zeit betrachtet ein Pferd um die Strategie "Fusion is Future" umzusetzen und eine Zeit lang war es bezüglich HPC APU, bzw HSA auch sehr still geworden.
Fusion is the Future wurde offiziell 2015 beerdigt. Damals wurde die RTG unter der Leitung von Rada Koduri gegründet und mit der Arbeit an ROCm begonnen.

Das einzige zu was die APUs zu gebrauchen sind, sind Games. Alle anderen Erwartungen an die APUs hatten sich schon 2015 als Illusion erweisen. Die Hardware nützt eben nichts ohne einen Softwarestack mit dem auch Anwendungen für diese Hardware entwickelt werden.
pipip schrieb:
Eben weil Zen durchaus ein Erfolg war/ist.
AMD hatte neben den Konsolen Deals auch Forschungsgelder bekommen. Ein Teil dieser Forschungsgelder ging in die Weiterentwicklung der APUs für HPC. Als diese Forschung in Form von Papers veröffentlicht wurden, waren die Konzepte der MI300A zu sehen.

In den Folgejahren hat AMD daran gearbeitet diese Konzepte zu realisieren. Das braucht Zeit und Halbleiterunternehmen zeigen ungern woran sie genau arbeiten.
pipip schrieb:
Wie es ausgesehen hätte, wenn AMD NV gekaufte hätte mit der Bedingung Huang als CEO, wer weiß es schon.
AFAIK wäre Nvidia zu teuer gewesen und umgekehrt oder bei einer Fusion hätte man klären müssen wie es mit der X86-Lizenz aussieht.

Ein Zusammenschluss von AMD und Nvidia unter der Führung von Jensen Huang wäre erheblich besser gewesen als das was folgte. Es ist nun Mal rückblickend klar, dass weder Hector Ruiz noch Dirk Meyer den Anforderungen gewachsen waren.
pipip schrieb:
Wäre Intel vllt früher in den GPU Markt eingestiegen?
Die GPU-Ambitionen von Intel waren doch der Grund, warum AMD ATI gekauft hat.

Es gab damals bei den GPUs nur noch ATI und Nvidia. ATI hatte mit Ausname von 3dfx alle Unternehmen mit GPU Know How aufgekauft.

Im Grund war ATI gerade dabei die unzähligen Übernahmen zu verdauen, als sie selbst von AMD gekauft wurden.
 
ETI1120 schrieb:
Natürlich haben die Einnahmen aus den Konsolendeals AMD Zeit verschafft. Aber AMD hat alle Tricks angewendet, die ein sterbendes Unternehmen anwenden muss um Cash zu besorgen.
Es geht nicht um die Einnahmen, sondern die Entwicklung und die Kosten der Forschung. AMD konnte selbst die Forschung nicht mehr zahlen.
Mit Zusammenarbeit direkt mit Kunden wie MS und Sony konnten Designs (bzw künftige Ausrichtung AMDs, "Semi-Custom Business Unit") entwickelt werden, die dann Abnehmer gefunden haben. Deshalb halte ich die Konsolen-Deals als essentiell.

Da geht es mir nicht mal um die Aussage, dass hat AMD über Wasser gehalten.

Fusion is the Future wurde offiziell 2015 beerdigt.
Wo ? Ich erinnere mich da eher an ein Umbenennen aufgrund von Marken-Rechte.

Welche Fertigungsstraßen? Halbleiterfabriken haben keine Fließbänder. Die einzelnen Fertigungsschritte haben unterschiedliche Zeitkonstanten somit ist eine lineare Fertigung nicht möglich.
Dann ist das so. Ändert aber nichts an meiner Aussage. War man bei AMD dabei nur mehr bei GF zu fertigen, ist man mit den Konsolen Chips wieder bei TSMC gelandet und so hat man auch wieder eine Partnerschaft ausgebaut.
 
Zuletzt bearbeitet:
stefan92x schrieb:
Wobei das durchaus etwas kurios ist, da die MI300 ja deutlich komplexer ist als Nvidias H100. Die muss ja nur mit dem HBM verheiratet werden und ist ansonsten ein Monolith, während AMD anstelle eines Monoliths 12 oder 13 (A vs X) Chiplets stapeln und dann miteinander (und dem HBM) verbinden muss.
Hier muss man aber deutlich zwischen dem TSMC SoIC (3D) und CoWoS (2.5D) unterscheiden.

CoWoS verwenden viele und auch die H100. Hier sind AFAIK die Engässe.

TSMC SoIC ist noch nicht so verbreitet. Natürlich muss AMD auch hier Kapazitäten buchen.

Eigentlich hatte ich erwartet dass AMD wieder EFB wie bei der MI200 verwendet. Aber je mehr Details zur MI300 bekannt wurden desto größer wurden meine Zweifel ob das mit EFB hinhaut.
Ergänzung ()

eastcoast_pete schrieb:
Im Moment gibt's eigentlich nur zwei Firmen, die sowas in der Form können: eine davon ist TSMC, und die andere ist - Intel.
Es ist nur mit TSMC möglich.

Intel kann es momtan nicht. Es geht nicht darum Chips zu stapeln, es geht ums Hybrid Bonding. Beim Hybrid Bonding werden die Chips nahtlos verschweißt. Dabei entstehen Verbindungen mit excellenten elektrischen Eigenschaften. Und auf die elektrischen Eigenschaften kommt es sowohl beim 3D V-cache als auch bei der MI300 an.

Und wenn man von Hybrid Bonding absieht und nur 2.5D betrachtet kommen auch noch andere Unternehmen (z. B. ASE oder Amkor) ins Spiel. Intel ist beim Advanced Packaging nicht annähernd so gut wie viele meinen.

eastcoast_pete schrieb:
Deswegen ist's auch sehr interessant, daß sowohl Jensen Huang (Nvidia CEO) als auch Nvidias CFO in jüngster Zeit öffentlich nette Worte über Intels Fertigungsfähigkeiten geäußert haben. TSMC kommt nämlich zur Zeit einfach nicht nach beim Packaging.
Jensen Huang will nicht von TSMC abhängig sein. Deswegen ist er ja zu Samsung gegangen.

Kokettieren mit Intel übt Druck auf TSMC aus. Ob daraus mehr wird?
eastcoast_pete schrieb:
Den Cerebras findet man allerdings auch nicht auf Geizhals im Preisvergleich 😁. Das Ding ist schon enorm, ein 300 mm Wafer ergibt genau einen Chip. Der auch nicht Milliarden, sondern Billionen von Transistoren hat. Benötigt laut offiziellen Angaben um die 2.5 - 3 kW pro Chip.
Der Chip ist im Vergleich zum System außen herum absolut langweilig.
Ergänzung ()

eastcoast_pete schrieb:
Das "nur" würd ich allerdings auch in Anführungszeichen setzen. Trivial ist schon das alleine nicht. Außerdem kommt da noch viel an sehr schneller und komplexer Konnektivät dazu, die bei derartigen Beschleunigern absolut essenziell ist, damit die im Verbund auch die Geschwindigkeit erreichen können , die hier erwartet wird. Und das alles muß schön eng beieinander sitzen, damit die zig hunderte von Gigabit pro Sekunde erreicht werden können.
Die Verbindungen sind nicht das Problem. Es ist die Größe der Silizium Interposer. Sie sind größer als das Recticle Limit und damit nicht trivial zu fertigen.

Und da GPU und HBM-Stacks nicht von alleine auf den Interposer setzen benötigt man Anlagen auf denen die GPUs "montiert" werden.
Ergänzung ()

stefan92x schrieb:
Mein letzter Wissensstand war, dass Advanced Packaging knapper ist als die Wafer an sich. Was du vermutest, würde dem halt widersprechen. Kann aber durch die jeweilige Vertragssituation natürlich im Vergleich von Nvidia und AMD zutreffen.
Der Engpass ist um genau zu sein CoWoS, oder 2.5D.

Hier hat TSMC aber auch schon angekündigt sich mit OSATs zusammen zu tun um zusätzliche Kapazität zu bekommen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pipip
pipip schrieb:
Ich stelle da jetzt die gewagte Behauptung auf, ohne den Kauf gäbe es AMD heute nicht mehr.
Das ist nicht einmal eine gewagte Behauptung, sondern ziemlich offensichtlich. Bulldozer war ein so gewaltiges Desaster, dass AMD sich nur dank der Grafiksparte über Wasser halten konnte. Was im Übrigen nicht nur klassische GPUs bedeutet, sondern in dem Fall vor allem die Konsolendeals. Die haben AMD im Endeffekt den Arsch gerettet und ohne potente Grafiklösungen hätten sie die niemals bekommen.
 
pipip schrieb:
Es geht nicht um die Einnahmen, sondern die Entwicklung und die Kosten der Forschung. AMD konnte selbst die Forschung nicht mehr zahlen.
Mit Zusammenarbeit direkt mit Kunden wie MS und Sony konnten Designs (bzw künftige Ausrichtung AMDs, "Semi-Custom Business Unit") entwickelt werden, die dann Abnehmer gefunden haben. Deshalb halte ich die Konsolen-Deals als essentiell.
Keine Frage, dass um 2014/2015 die Konsolendeals AMD über Wasser gehalten haben.
Das war nur mit ATI möglich.

Aber ATI hat AMD enorm viel Geld gekostet. Ich habe geschrieben anderen Zeitstrahl, weil die Übernahme auch Auswirkungen auf AMD hatte.
pipip schrieb:
Wo ? Ich erinnere mich da eher an ein Umbenennen aufgrund von Marken-Rechte.
Im September 2015 wurde die RTG gegründet und hier wurden unter der Führung von Raja Koduri alle Grafikaktivitäten zusammengefasst. Also man hat sich organistorisch von Fusion verabschiedet.

Phil Rogers der bei AMD HSA versucht hat voranzutreiben ist im Oktober 2015 zu Nvidia gewechselt.

Im Januar 2016 hat AMD ROCm angekündigt. Hier hat AMD alle Kapazität reingeschmissen und Fokus war ganz klar HPC.

Und die Aktivitäten zu HSA sind eingeschlafen. Das tragische daran ist, dass es genau dann geschah als die erste APU draußen war die hardwareseitig komplett HSA unterstützt hat.
 
  • Gefällt mir
Reaktionen: incurable
Linmoum schrieb:
Bulldozer war ein so gewaltiges Desaster, dass AMD sich nur dank der Grafiksparte über Wasser halten konnte.
Bulldozer wurde im Jahr 2011 veröffentlicht, das ist also ein Produkt der durch die Übernahme von ATi geschwächten Entwicklungsabteilung. (fehlendes Geld & Entwicklungszeit in die Fusionssackgasse)
 
  • Gefällt mir
Reaktionen: peru3232
incurable schrieb:
AMD EPYC™ ist eine Handelsmarke von AMD. Die hier besprochenen Produkte vertreibt AMD unter einer anderen Handelsmarke, nämlich AMD Instinct™.
Ist dennoch eine Epyc + Instinct kombinierte APU, da kann mir jetzt noch so oft widersprochen werden, ist leider Fakt.

Der Server hat übrigens nur diese APU, welche eben Epyc und CDNA3 kombiniert. Da ist kein Intel oder sonstwelcher anderer Prozessor extra mit drin. Ohne Epyc, wäre dieser Server unmöglich zu betreiben.
 
Linmoum schrieb:
Das ist nicht einmal eine gewagte Behauptung, sondern ziemlich offensichtlich.
AMD wurde durch Zen gerettet.

incurable schrieb:
Bulldozer wurde im Jahr 2011 veröffentlicht, das ist also ein Produkt der durch die Übernahme von ATi geschwächten Entwicklungsabteilung. (fehlendes Geld & Entwicklungszeit in die Fusionssackgasse)
Ganz meine Meinung, Bulldozer kam 5 Jahre nach der heraus. Hier kann man nicht mehr so tun als hätte die Übernahme keine Auswirkung auf die CPU-Entwicklung von AMD gehabt. Die erste APU wurde übrigens mehrfach verschoben.

Und die teure Übernahme hat eben auch das Geld entzogen, um die Leute zu bezahlen die Fusion von der Softwareseite hochziehen hätten können.
 
  • Gefällt mir
Reaktionen: incurable
eazen schrieb:
Ist dennoch eine Epyc + Instinct kombinierte APU, da kann mir jetzt noch so oft widersprochen werden,
Es ist nun Mal das Drama mit Geisterfahrern, sie glauben alle anderen fahren in die falsche Richtung, nur sie fahren richtig.

Du musst es auch noch AMD erklären, dass sie vergessen haben EPYC als bestandteil der MI300 zu erwähnen.

1702761574279.png

Aus dem Foliensatz des AI Events

Das ist Epyc, den AMD in der aktuellen Generation in 4 varianten anbietet.

1702761026376.png

Aus dem Foliensatz zur Vorstellung von Zen 4/EPYC auf der Hot Chip 35

Das einzige was MI300A und Genoa gemeinsam haben sind dass sie im Prinzip dieselben CCD verwenden. Im Detail betrachtet unterscheiden sich sogar die CCDs verwendet die MI300A CCDs mit Bonding Pads anstelle von Bumps bei Ryzen und Epyc.

Dass bei MI300 und Genoa komplett verschiedene IODs verwendet werden, könnte sogar Dir auffallen. Oder muss ich Dir das auch noch Punkt für Punkt zeigen?

eazen schrieb:
Dass du das glaubst, zeigt leider, dass Du keine Ahnung hast.
 
  • Gefällt mir
Reaktionen: peru3232, bad_sign, ComputerJunge und 2 andere
Aber ATI hat AMD enorm viel Geld gekostet. Ich habe geschrieben anderen Zeitstrahl, weil die Übernahme auch Auswirkungen auf AMD hatte.
Ja je nach "Zeitstrahl" wird man den Kauf von ATI auch anders bewerten. Es hat viel gekostet, Punkt. Eine Investition kann viel kosten, am Ende zählt der Betrachtungspunkt, ob die Investition aufgegangen ist. Aufgegangen wäre sie nicht, wenn AMD deshalb tatsächlich Bankrott gegangen wäre. Der Punkt, dass durch die Investition AMD sogar überlebt hat spricht für die Investition.
Der Punkt, dass heute Produkte existieren, mit denen AMD Potential hat zu wachsen, das sind die Notebook APUs und das sind die kommenden KI und HPC Beschleuniger sprechen von einer richtigen Investition.
Und die Alternativen wären NV und VIA gewesen und es ist schlicht schwer zu sagen, wie die Realität heute aussehen würde.

Heute basieren AMDs Wertschöpfende Produkte aus CPU und GPU. Und es zeigt sich auch, dass die Server-Sparte ihr wichtigstes Standbein werden wird.
Und x86 wird zwar weiterhin ein wichtige Komponente bleiben, aber NV ist aus jetzigem Zeitpunkt das BSP, dass AMD eher mit Beschleuniger und passender Software vorankommen muss.
Außerdem sagt AMD selbst immer, sie setzen auf x86 weil sie Zen haben, würden aber auch auf ARM springen, wenn es Gründe dafür gäbe. Da gibt es durchaus Interviews von Lisa Su, zu mindestens Aussagen.

Und "Future is Fusion" und "HSA" steht für eines, je Workload der passende Schaltkreis, sei es CPU, GPU, XDNA, oder sonstige SIMD oder VLIW ect Baugruppen. Wichtig ist, dass alles zentral aus einem Speicher greift und direkt über eine HL Sprache angesprochen werden kann und nicht unnötig herumkopiert werden muss. Das ist "Future is Fusion", das ist "HSA".
https://de.wikipedia.org/wiki/Heterogeneous_System_Architecture
oder siehe Folie:
1702765441714.png


Und ONE-API (https://www.intel.com/content/www/us/en/developer/tools/oneapi/overview.html) von Intel ist grundgenommen nichts anderes und NV weiß das und muss ebenso in die Richtung arbeiten, genau deshalb ARM Chip oder Enge Partnerschaft mit AMD oder Intel im Verbund zu X86.

Ganz meine Meinung, Bulldozer kam 5 Jahre nach der heraus. Hier kann man nicht mehr so tun als hätte die Übernahme keine Auswirkung auf die CPU-Entwicklung von AMD gehabt. Die erste APU wurde übrigens mehrfach verschoben.
AMD ist als Nummer zwei zu Intel entstanden und war quasi der zweite Versorger für x86 CPUs. AMD war gegründet um die "günstige" Lösung zu sein. Ab einem Punkt hat sich AMD dann aber emanzipiert (eigener Sockel) und den Fokus auf HPC / Server gelegt. Athlon XP und Athlon 64 waren klar Server-Produkte, die dann auch beim Consumer Verwendung fanden.
AMD konnte mit Intel im Punkt Fertigung ab einem gewissen Zeitpunkt nicht mehr nachkommen. Stets mussten sie über das Design Lösungen finden, unteranderem die Multi-Ccore CPUs , Hypertransport usw.
So kam man auf die Idee "Redundanz" zu minimieren und war mit der Meinung aus CMT einen Art DualCore mit nur (ich glaube) 80% der Fläche zu realisieren... Das ist einfach total in die Hose gegangen. Wobei ZEN sich zum Beispiel von Phenom deshalb so unterscheidet, weil er einen Micro_OP_Cache bekommen hat und das Front-End stark verbessert wurde und man hier erst auf Intel nachgezogen ist. Wer weiß ob das bei einem CMT Design nicht auch geholfen hätte... Bin aber kein Experte...

Der Strategie-Wechsel war dann meiner Meinung zum Zeitpunkt der Konsolen Deals. Mit eigenen Produkten im Sinne von SIMD für X86 CPUs konnte man selten oder kaum den Kunden oder die Software-Hersteller ins Boot bringen. Man denkt an PowerNow! als Bsp. Und AMD hat seit Zen auch nichts mehr in diese Richtung geliefert. (zu mindestens wäre mir nichts bekannt). Stattdessen hat AMD den Fokus von HPC-Server auf "Bedarf" der Kunden fokussiert. Damit meine ich folgendes.
Braucht ein Kunde eine X86 CPU und eine IGP auf einem Chip aus einer Hand, können sie das mit AMD über ein Art Baukasten-System designen und dann das bei TSMC, GF oder Samsung fertigen lassen. AMD hat an Flexibilität gearbeitet, mit dessen Fehlen bei Intel beim Start von Zen2 durch AMD Intel anschließend so hart auf die "Fresse" gefallen ist. Intel Design war stark an eigene Fertigung geschnitten und die Fertigung hat maßgeblich das Design vorgegeben (und das hat Intel selbst in Interviews erzählt). Intel konnte nur träge auf AMD reagieren. AMD war hochflexibel mit ihren Designs. Überall konnte AMD plötzlich innerhalb kurzer Zeit mit wenig Aufwand Produkte erschaffen. Mit zwei Chips konnte AMD plötzlich alle Bereiche beliefern. Von Notebook bis Server und schnell Anpassungen machen.
AMD hat Zen und Zen+ bei GF gefertigt, Zen2 dann bei TSMC und GF usw. AMD hat alle I/O Sachen ausgelagert und alle Sachen dessen bessere Fertigung Performance liefert in einen eigenen Chip ausgelagert. Es mussten I/O nicht ständig neu angepasst werden, die soviel ich von einem Interview weiß, teils sogar von Arbeitsgruppen händisch und nicht automatisiert an eine neue Fertigung angepasst werden müssen.

Sie haben sich mit Zen durchgesetzt, nicht weil sie den Fokus auf X86 hatten sondern den Fokus der starken Skalierbarkeit. Skalierbarkeit bei den IPs (CPU Varianten, Bobcat, Zen, Bulldozer, ARM, GPU Varianten, VEGA,RDNA usw, demnächst XDNA?) untereinander, Skalierbarkeit bei der Herstellung durch Fertiger und Skalierbarkeit bei der Fertigungsgröße selbst.
Und diese Skalierbarkeit bauen sie immer weiter aus. 3DCache, l3Cache für die GPU mit SI und jetzt die Kombination von allem im MI300. Jede Komponente haben sie in Produkten zuvor eingesetzt. Scheinbar teils sogar mit der 1 Generation jeweils als Testballon.
Und wenn AMD die Fusion noch mit der Software schafft, hat man mit den MI300 einen HSA Beschleuniger, der je nach Workload die Last effektiv auf jene Funktionseinheit schiebt, die am besten jenen Workload zum jeweiligen Zeitpunkt verarbeitet. Aber vllt müssen sie selbst die Arbeit nicht allein machen. Hoffentlich machen das jene Universitäten und Firmen, die AMDs Hardware in den schnellsten Hochleistungsrechner verbaut haben... Jene open source Bibs erweitern..

Und genau das alles ist meine Argumentation, wieso die Konsolen-Deals aus meiner "naiven" Sicht von außen als wichtig und wegweißend für heutige AMD Produkte halte.
Das "Fusion is Future" ist zwar lange Programm und Ziel, die Umsetzung ist aber erst mit dem Fokus auf Skalierbarkeit der jeweiligen Funktionseinheiten entstanden, im Vergleich zum immer mehr "Verschmelzen" der Komponenten zu einer generellen Funktionseinheit.

Und ähnlich wie HT für Athlon64 wichtig war, sehe ich nicht den Zen Core als eigentlichen Meilenstein des heutigen Erfolgs von AMD an, sondern Infinity Fabric Bus als Protokoll, den scheinbar Intel ewig gebraucht hat um ähnliches zu "kopieren". Jetzt mal ganz frech ausgedrückt.
 
Zuletzt bearbeitet:
incurable schrieb:
Ich würde noch ein Stück weiter gehen:

AMD wurde von Intel(s jahrelanger Unfähigkeit, die eigenen Prozessentwicklungen plangemäß serientauglich zu machen) gerettet.
Dazu gibt es sehr viel zu sagen.

Du hast recht, dass heute AMD profitabler als Intel ist, hat sehr viel mit den Fehlern bei Intel zu tun. Wenn Intel optimal gearbeitet hätte, wäre es für AMD sehr viel schwerer geworden als es ohnehin war. Aber Mal ganz ehrlich, wann hat Intel dauerhaft optimal gearbeitet?*)

Intel hat aber auch bei den Architekturen nicht mehr sonderlich viel gebracht. Erst Golden Cove gab wieder einen Boost. Allerdings bin ich gespannt wie wir in 5 Jahren über Golden Cove reden. Bei Chips geht es um PPA und nicht nur um P.

Somit die gescheiterte Prozessentwicklung bei ist nur eine Fassette des Versagens. Der Witz ist übrigens, dass genau zu dieser Zeit ein CEO amtiert hat der aus der Prozessentwicklung kam. Heute stellt es Pat Gelsinger so dar, das Brian Krzanich viel zu lasch war.

Jim Keller stellt es im übrigen so dar, dass er die Leute bei Intel davon überzeugen musste, dass Moores Law nicht tot ist.

Wenn man sieht wie lange Intel nach dem Empfangen des ersten Siliziums braucht, um CPUs auf den Markt zu bringen, dann hakt es auch in anderen Bereichen des Engineerings.

Eine andere Sichtweise ist, dass es vor allem die überlegene Prozesstechnik und eigenen Fabs waren, die Intel 2014 in die absolut dominierende Stellung gebracht haben. Keiner der RISC-Konkurrenten konnte von der Fertigungsseite mit Intel mithalten.

Das gilt auch für AMD. Für AMD war es entscheidend sich von GF zu trennen. Ohne TSMC ist der aktuelle Erfolg von AMD undenkbar. Wie ich schon öfters erwähnt habe, war AMD bereit GF für jeden 7 nm Wafer zu bezahlen den AMD bei TSMC belichten lässt.


*) Man kann die Geschichte auch so erzählen. Gerade als Intel mal wieder patzt, greift AMD Intel mit der genau richtigen Strategie an. AMD etabliert sich wieder als kleiner Mitwettbewerber auf dem Desktop, aber zielt im Grunde genau auf das Herz von Intel Serversparte. ...
 
pipip schrieb:
Ja je nach "Zeitstrahl" wird man den Kauf von ATI auch anders bewerten.
Was wäre gewesen wenn AMD den schweren Weg gegangen wäre und ein eigenes GPU-Team aufgebaut hätte? Oder wenn AMD nicht gewartet hätte, bis ATI alle Firmen mit GPU-Know-How aufgekauft hatte?

AMD wollte 2006 den schnellen Weg gehen und hat dabei sehr viel Geld in die Hand genommen.
Die offensichtlich bessere Option eines Zusammenschlusses mit Nvidia war nicht möglich.

Wie gesagt, die Geschichte war 2011 eigentlich schon gescheitert. Und trotzdem hat AMD noch Mal die Kurve gekriegt und letztendlich die Übernahme zu einem guten Ende geführt.

Wir sind einer Meinung, dass ohne die Verträge mit Microsoft und Sony hätte es AMD nicht geschafft.
Aber der Kauf von ATI ist nur ein Weg, um Grafik Know How zu bekommen. Und so wie die Sache gelaufen ist, war die verunglückte Übernahme ein wesentlicher Faktor bei den Problemen.

pipip schrieb:
AMD ist als Nummer zwei zu Intel entstanden und war quasi der zweite Versorger für x86 CPUs. AMD war gegründet um die "günstige" Lösung zu sein.
Das ist nicht richtig. AMD wurde 1969 gegründet, da gab es noch keine Microprozessoren.
pipip schrieb:
Ab einem Punkt hat sich AMD dann aber emanzipiert (eigener Sockel) und den Fokus auf HPC / Server gelegt.
Auch das ist, so wie Du es schreibst, falsch. Zwischen dem Second Sourcing das IBM von Intel gefordert hat und dem Entwickeln der Athlonplattform ist sehr viel passiert.
Intel hat AMD und die anderen X86-Anbieter von der eigenen Plattform ausgeschlossen. Damit musste AMD eine eigene Plattform entwickeln.
Die Geschichte zwischen Intel und AMD:
https://jolt.law.harvard.edu/digest/intel-and-the-x86-architecture-a-legal-perspective

DEC war wie alle Anbieter von Minicomputern vollkommen blind was den PC anbelangt. DEC hatte mit dem Alpha noch mal einen großen Wurf und hat auch rechtzeitig verstanden wie wichtig Linux ist. Aber das Kerngeschäft mit den Minicomputern ist weggebrochen, DEC wurde von Compaq übernommmen, und auch Compaq kam ins Straucheln, ...

Das alles hatte zur Folge, dass hervorragende Entwickler in Scharen DEC verlassen haben. Einige sind direkt oder indirekt (NexGen) bei AMD gelandet. Diese Leute (u. a. Jim Keller und Dirk Meyer) brachten sehr viel Prozessor und System Know How zu AMD. Das waren die Grundlagen für Athlon und Athlon64.

Auch damals hat AMD Intel auf dem falschen Fuß erwischt. Itanium sollte x86 und eigentlich auch alles andere ablösen, konnte aber die Erwartungen nicht im Ansatz erfüllen. Pentium 4 war nicht so dolle, höflich formuliert. Aber Intel hatte ein excellentes CPU-Architektur-Team in Israel. Deren Prozessordesigns haben Intel wieder nach vorne gebracht. Und Intel für mehr als das nächste Jahrzehnt geprägt.

AMD konnte nicht mehr an die Erfolge von Athlon und Athlon64 anknüpfen. Und so zog Intel langsam aber sicher davon. Dass das Bulldozer-Desaster sich eingebrannt hat, lag vor allem daran, dass Erwartungen sehr hoch waren. Alle erhofften sich einen großen Wurf, heraus kam ein müder Kullerball.

Forrest Norrod beschreibt diese Zeit bei AMD schlicht und einfach mit Bad Execution. Die eigene Halbleiterproduktion, die immer weiter zurückfiel, ist aus heutiger Sicht ein ganz wichtiger Faktor. Aber so bewusst war mir das damals nicht. Es ging damals meist um die Zeit die AMD zurücklag. Dass elektrischen Eigenschaften schlecht waren und die Fehlerrate zu hoch war, ist mir erst im Nachhinein klar geworden. Vielleicht stand es in den Artikeln, aber ich habe es damals nicht wahrgenommen bzw. nicht verstanden.
pipip schrieb:
So kam man auf die Idee "Redundanz" zu minimieren und war mit der Meinung aus CMT einen Art DualCore mit nur (ich glaube) 80% der Fläche zu realisieren... Das ist einfach total in die Hose gegangen. Wobei ZEN sich zum Beispiel von Phenom deshalb so unterscheidet, weil er einen Micro_OP_Cache bekommen hat und das Front-End stark verbessert wurde und man hier erst auf Intel nachgezogen ist. Wer weiß ob das bei einem CMT Design nicht auch geholfen hätte... Bin aber kein Experte...
Ich sehe es heute so: AMD hat gemerkt, dass sie mit ihrer Fertigung nicht gegen Intel ankommen. Deshalb hat AMD ganz neue radikale Wege versucht. Und vieles ist gescheitert.

Es kommt gar nicht so sehr auf die Details an. Chips&Cheese hat einen sehr guten Artikel zu Bulldozer.
Aber Zen und Bulldozer zeigen, dass man am meisten aus seinen Fehlern lernt. Im Interview bei Anandtech
beschreibt Mike Clark wie sie Zen hochgezogen haben und dabei vor allem auf die Power geachtet haben.
pipip schrieb:
Der Strategie-Wechsel war dann meiner Meinung zum Zeitpunkt der Konsolen Deals. Mit eigenen Produkten im Sinne von SIMD für X86 CPUs konnte man selten oder kaum den Kunden oder die Software-Hersteller ins Boot bringen. Man denkt an PowerNow! als Bsp. Und AMD hat seit Zen auch nichts mehr in diese Richtung geliefert. (zu mindestens wäre mir nichts bekannt). Stattdessen hat AMD den Fokus von HPC-Server auf "Bedarf" der Kunden fokussiert. Damit meine ich folgendes.

Der Strategie-Wechsel begann mit dem Rausschmiss von Dirk Meyer. Rory Read kam kurz vor dem Release von Bulldozer und hat das Unternehmen komplett umgekrempelt. Unter seiner Führung kamen Lisa Su, Mark Paper Master, Jim Keller und Raja Koduri. Wobei Raja Koduri rückblickend den undankbarsten Job hatte.

Den Stategiewechsel haben Lisa Su und Mark Papermaster initiert. Die Mannschaft die den Strategiewechsel umgesetzt hat war mit ganz wenigen Ausnahmen schon bei AMD.

pipip schrieb:
Braucht ein Kunde eine X86 CPU und eine IGP auf einem Chip aus einer Hand, können sie das mit AMD über ein Art Baukasten-System designen und dann das bei TSMC, GF oder Samsung fertigen lassen.
Eben habe ich einen Artikel von Golem ausgegraben. Jetzt verstehe ich was Du meinst. Das mit dem Baukastensystem etc. war Marketing Bla Bla. Funktionsblöcke und später komplexe IP bis hin zu CPU-Kernen gab es schon seit vielen Jahren. Da ist technisch nichts neues dran. Aber mit den Konsolendeals für PS4 und XBoxOne hat AMD Semicustom aus der Taufe gehoben. So sonderlich viele Customdeals hat AMD nicht geholt. Eigentlich waren es nur die Konsolen inklusive Steam Deck. Und vielleicht noch ein wenig Kleinkram.

Technisch hatte das keine Auswirkung. Eine X86 CPU und GPU auf einem Chip zusammenzupacken war der Kern von Fusion. Wo da ein neues Baukastensystem sein soll kann ich nicht erkennen. Wenn man aber berücksichtigt dass AMD IP von Sony dazugepackt hat ergibt dies aber eine schöne SemiCustom Geschichte. Aber es gibt keinen neuen Baukasten für AMD.

Alle Kosolen Chips sind bis heute monolithisch. Eine APU zu verbauen senkt die Systemkosten und beim begrenzten Power Budget einer Konsole sind einer Kombination aus CPU und dGPU Grenzen gesetzt. Da auf den Konsolen Games laufen, passen die APUs. Denn zu etwas anderem sind die AMD Client-APUs bis heute nicht zu gebrauchen. Und das ist die eigentliche Tragödie.

Ich weiß nicht was alle mit dem bei "TSMC, GF oder Samsung fertigen lassen" wollen. Seit FinFET sind die Chipdesigns an das PDK der jeweiligen Foundry gebunden. Denselben Chip bei TSMC und Samsung fertigen zu lassen, erfordert 2 eigenständige Chipdesigns. Die Unternehmen müssen bei TSMC ein NDA unterschreiben, das eine Sperrfrist festlegt, bis Chipdesinger, die mit dem TSMC PDK gearbeitet haben, mit dem PDK einer anderen Foundry arbeiten dürfen.

Ein weiterer wichtiger Faktor ist die Verfügbarkeit von IP. TSMC hat unangefochten das größte Angebot an IP. In jedem SoC steckt IP von Drittanbietern. Und wenn die IP nicht in der anderen Foundry verfügbar ist, muss man nicht nur das Chipdesign neu machen, sondern auch die RTL-Programmierung des Chips ändern.

Eine der wichtigsten Lektionen aus Bulldozer war, dass man erstklassige CPUs nur mit einer erstklassigen Halbleiterfertigung hinbekommt. Und nur mit erstklassigen CPUs kann man Geld verdienen.

Während der Evalierung wie es weitergehen soll, ist die Entscheidung gefallen es mit Chiplets zu versuchen. Und genau hier beginnt das neue AMD.

Anstatt die nächste CPU zu entwickeln hat AMD begonnen einen komplette Roadmap zu erstellen, Zen war von Anfang an nur der erste Schritt. Parallel zum Kern wurde das Know How entwickelt das notwendig ist um Chiplets zu verwirklichen, das Infinity Fabric.
pipip schrieb:
AMD hat daran gearbeitet, womit Intel mit Start von Zen2 durch AMD so hart auf die "Fresse" gefallen ist. Ihre Design war stark an eigene Fertigung geschnitten und die Fertigung hat maßgeblich das Design vorgegeben. Intel konnte gar nicht reagieren.
Ich verstehe nicht was Du damit sagen willst.

Jedes Chipdesign muss an die vorgesehene Fertigung angepasst werden. Alleine schon weil sie mit einem speziellen PDK erstellt werden muss. Nicht optimal an den verwendeten Prozess anzupassen bedeutet Potential zu verschenken.

Intel hatte das Problem, dass der 10 nm Prozess nicht ins laufen gekommen ist. Schon mit Zen hat AMD Intel gezwungen den Anteil der größere Dies (mehr Kerne) zu erhöhen. Das hat bewirkt dass Intel mit der verfügbaren Kapazität weniger Chips fertigen konnte.

Beides zusammen hat Intel gezwungen weitere Produkte an TSMC zu vergeben und hat letztendlich die Auftragsfertigung für andere Unternehmen bei Intel gekillt. Intel hat alle verfügbare Kapazität selbst benötigt. IIRC hat Intel erst 2020 ausreichend Kapazität gehabt.
pipip schrieb:
AMD war hochflexibel mit ihren Designs. Überall konnte AMD plötzlich innerhalb kurzer Zeit Produkte erschaffen.
Welches Chipdesign hat AMD in kürzester Zeit erschaffen?

Flexibel und schnell reagieren kann AMD nur mit den Chiplets.

pipip schrieb:
AMD hat Zen und Zen+ bei GF gefertigt, Zen2 dann bei TSMC und GF usw. AMD hat alle I/O Sachen ausgelagert und alle Sachen dessen bessere Fertigung Performance liefert ausgelagert.
IO skaliert nicht, sie hätte bei 7 nm praktisch dieselbe Chipfläche benötigt wie mit 14 nm.
pipip schrieb:
Es mussten I/O nicht ständig neu designt werden, die soviel ich von einem Interview weiß, teils sogar von Arbeitsgruppen händisch und nicht automatisiert an eine neue Fertigung angepasst werden muss.
AMD hat 3 Dies entwickelt und konnte damit Prozessoren von 8 bis 64 Kerne herstellen. Monolithisch wären 64 Kerne nicht möglich gewesen. Monolithisch hätte sich AMD das breite Produktangebot alleine schon wegen den Designkosten nicht leisten können.

AMD kann durch das Verwenden eines IOD für alle Server, auch kleine Server CPUs mit der vollen IO-Austattung der großen Server CPUs anbieten.

pipip schrieb:
Sie haben sich mit Zen durchgesetzt, nicht weil sie den Fokus auf X86 hatten sondern den Fokus der starken Skalierbarkeit. Skalierbarkeit bei den IPs (CPU Varianten, Bobcat, Zen, Bulldozer, ARM, GPU Varianten, VEGA,RDNA usw, demnächst XDNA?) untereinander, Skalierbarkeit bei der Herstellung durch Fertiger und Skalierbarkeit bei der Fertigungsgröße selbst.
Die Skalierbarkeit hängt an den Chiplets und auch am Infinity Fabric.
Das Infinity Fabric kam 2017 mit Zen und die Chiplets kamen erst 2019 mit Zen 2.
Bei den GPUs gibt es erst seit RDNA 3 Chiplets, aber eben nur so, dass ein GCD mehrere MCD hat.
Und RDNA 3 skaliert deswegen eben nur sehr begrenzt.

Auf dem FAD 2022 waren Infinity Fabric und SemiCustom ein Thema. AMD hat auf großer Bühne nochmal damit geworben die IP von Kunden mit der IP von AMD (CPU, GPU, ...) zu Custom Chips zu verschmelzen.
Ich habe von keinem neuen Projekt gehört.

pipip schrieb:
Und diese Skalierbarkeit bauen sie immer weiter aus. 3DCache, l3Cache für die GPU, und jetzt die Kombination von allem im MI300.
Der Infinity Cache erfüllt zwei Rollen. Bei RDNA ist seine Funktion die effektive Bandbreite zum Speicher zu erhöhen. Navi 21 konnte deshalb mit einem 256-bit-interface umgesetzt werden. Skalierung kann ich hier nicht erkennen.

In der MI300 erfüllt der Inifinity Cache die Rolle als schneller Zwischenspeicher zwischen den GCD. Hier ermöglicht es das Skalieren, weil mehrere GCD als eine GPU agieren können.
pipip schrieb:
Und wenn AMD die Fusion noch mit der Software schafft, hat man mit den MI300 HSA Beschleuniger, der je nach Workload die Last effektiv auf jene Funktionseinheit schiebt, die am besten jenen Workload zum jeweiligen Zeitpunkt verarbeitet.
Die MI300 hat aber einen ROCm Software Stack. HSA in Form von Heterogenous System Architecture ist tot. Wenn HSA leben würde, gäbe es Anwendungssoftware auf den AMD Client APUs. Aber davon ist nichts zu sehen. Die einzige Hoffnung ist dass ROCm für die APUs kommt.

pipip schrieb:
Und genau das alles ist meine Argumentation, wieso die Konsolen-Deals aus meiner "naiven" Sicht von außen als wichtig und wegweißend für heutige AMD Produkte halte.
Die Konsolen APUs sind Semicustom und die MI300 sind AMD-Standard-Produkte.

Wenn ein Kunde kommt und eigene IP mit CDNA kombinieren will, würde es AMD tun. Nur sind solche Deals nicht absehbar.

Die Konsolendeals haben Geld in die Kassen von AMD gespült. Wahrscheinlich haben Microsoft und Sony auch direkt das Entwickeln von RDNA und RDNA 2 finanziert.
pipip schrieb:
Das "Fusion is Future" ist zwar lange Programm und Ziel, die Umsetzung ist aber erst mit dem Fokus auf Skalierbarkeit der jeweiligen Funktionseinheiten entstanden, im Vergleich zum "Verschmelzen" der Komponenten zu einer generellen Funktionseinheit.
Schau Mal bitte nach was aus HSA geworden ist. Dass AMD APUs anbietet und das AMD CPUs und GPUs per Heterogeneous Integration erstellt haben nichts mit dem zu tun was AMD mit HSA versprochen hat. Hier ging es um Hard- und Software. Die Software ist AMD bis heute schuldig geblieben.
pipip schrieb:
Und ähnlich wie HT für Athlon64 wichtig war, sehe ich nicht den Zen Core als eigentlichen Meilenstein des heutigen Erfolgs von AMD an, sondern Infinity Fabric Bus als Protokoll, den scheinbar Intel ewig gebraucht hat um ähnliches zu "kopieren".
So, ganz AMD Ende ist Dir noch eingefallen was die Skalierbarkeit ausmacht.
Aber wie ich oben schon geschrieben habe gibt es das Infinity Fabric erst seit Zen.
pipip schrieb:
Jetzt mal ganz frech ausgedrückt.
Da fehlt schon noch einiges mehr.
 
  • Gefällt mir
Reaktionen: pipip
pipip schrieb:
AMD hat Zen und Zen+ bei GF gefertigt, Zen2 dann bei TSMC und GF usw. AMD hat alle I/O Sachen ausgelagert und alle Sachen dessen bessere Fertigung Performance liefert ausgelagert.
IO skaliert nicht, sie hätte bei 7 nm praktisch dieselbe Chipfläche benötigt wie mit 14 nm.

Mir ging es hier auch um Monolith vs Chiplet.
Wird ein Design auf eine andere Fertigung oder kleinere Fertigung portiert, kann AMD oft die aufwändige Arbeit für I/O dadurch sparen und Manpower in andere Projekte schieben. Zu dieser Aussage gibt es auch ein Video, wo AMD selbst diesen Vorteil als wichtig beschreibt und im Vergleich schneller neue Produkte erlaubt.

Mit dem Variieren von Chiplet zu neuen Produkten. Das beschreibe ich im oberen Text auch als Design.

Sonst danke für deine ausführliche Antwort!

Und ja, es ging mir um den Strategiewechsel, den du oben mit Rory Read beschreibst. Für mich war der Startpunkt mit den Konsolen-Deals und ohne ein ATI zu mindestens GPU hätte es das nicht gegeben.

Was wäre gewesen wenn AMD den schweren Weg gegangen wäre und ein eigenes GPU-Team aufgebaut hätte? Oder wenn AMD nicht gewartet hätte, bis ATI alle Firmen mit GPU-Know-How aufgekauft hatte?
Du meinst so wie Intel? Naja, man sollte nicht vergessen, dass AMD durch den Kauf auch viele Patente bekommen hat und das unteranderem auch in den gegenseitigen Patentdeals mit Intel eine Rolle spielt (?!).
 
Zurück
Oben