News Radeon-Gerüchte: So könnten die Navi-5-Chips mit UDNA aussehen

SweetOhm schrieb:
Stuss ³ !!
Mit Pathtracing bekommst mit einer 2500 - 3000 € Karte ne Dia Show. Ganz großes Kino ... :daumen:
Wüsste nicht das es eine 2000 EUR AMD Karte gibt, ka wie du das sonst wissen sollst...
Ergänzung ()

SweetOhm schrieb:
Somit ist sie bei den Ausreißern allerdings der Konkurrent ... ;)
Denn bei den anderen Ausreißern, in denen eine 5080 schneller ist, sind es halt auch Ausreißer.
Und bei meinen Ausreißern ist der Konkurrent der 9070XT die 4060Ti die trotzdem 50% schneller ist lol

1757046709891.jpeg

Ergänzung ()

SweetOhm schrieb:
Sagst das eigentlich auch immer zu Deinem Pfarrer bei der Beichte : Nein, die Steam Verteilung lügt nicht :lol:
Kannst ja ihm Fragen der Mathematiker ist und damit übereinstimmt:
Ergänzung ()

SweetOhm schrieb:
Ja, Fakten können eine bittere Pille sein :heul:
OK dann halt noch ein 2. mal cherrypick

1757046929979.png

Ergänzung ()

SweetOhm schrieb:
Du meinst wie der Hype, dass die die 5090 mind. 50% schneller sein wird als eine 4090 ?!? :rolleyes:
Quelle bitte davon und das 1,5 Jahre vor Releases
Ergänzung ()

SweetOhm schrieb:
Wissen wir, weil dies in jedem 2. Post erwähnst.
So manche lernens nur durch Wiederholung, manche nie.... ich geb jeden eine Chance hier
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fragger911 und ElliotAlderson
Limit schrieb:
Der Hauptvorteil von GDDR7 im Vergleich zu LPDDR5X/6 ist, dass das SI um den Faktor 3 bzw. 2 schmaler sein könnte, aber wenn das SI wegen der APUs/SoCs sowieso so breit sein muss ist GDDR-Unterstützung eigentlich überflüssig und geringerer Stromverbrauch wäre ein zusätzlicher Bonus.
Naja, die Effizienz von GDDR7 ist ja nicht mehr soweit weg, schließlich hat man gegenüber GDDR6(x) einiges verbessert, dazu kommt das einfachere Routing, höhere absolute Bandbreiten 32gbps statt 24gbps.
Die Taktraten einer IGP bzw. der Desktop Variante würden sich stark unterscheiden und dann limitiert eher wieder die Bandbreite, auch für KI Geraffel. Ich denke nicht, dass man LPDDR6 auf dGPUs sehen wird.
Limit schrieb:
Für mich würde es Sinn ergeben wenn GMDs den MC gleich integrieren, da die benötigte Bandbreite grob mit der Rechenleistung skaliert und man so auch den Kommunikationsoverhead gering halten könnte.
Naja, so gesehen gibt es ja keine Trennung zwischen "GMDs" und dem MC.
Zumindest bis jetzt noch nicht auf den AMD APUs, mal schauen ob s mit UDNA so wird und der MC dann im I/O chiplet sitzt.
 
Zuletzt bearbeitet:
BAR86 schrieb:
Warum sollte man auf Chiplets setzen wenn Monolithen immer noch Vorteile bieten?
Weil man flexibler ist, weniger verschiedene Dies braucht, und auch noch die Produktionskosten senkt und Kosten sind nun mal das A&O
 
Limit schrieb:
aber ich verstehe nicht warum GDDR gebraucht wird für eine dGPU. Wenn die Bandbreite für die APU ausreicht,
APUs haben andere Betriebspunkte als dGPUs.

Was nützt es mehr Power in die GPU zu schieben wenn die Bandbreite limitiert.

Deshalb die Spekulation, ob der Die mit unterschiedlichen Speicherinterfaces kombiniert werden kann.
Ergänzung ()

BAR86 schrieb:
@Icke-ffm Es senkt eben nicht automatisch die Kosten, das ist ja das...
Es senkt die Kosten massiv wie Sam Naffziger bei der Vorstellung von Zen 2 gezeigt hat.

Das AMD bisher bei den APUs monolithisch geblieben ist lag daran dass mit dem von AMD verwendeten Packaging Verfahren die Power zu hoch gewesen wäre.

Strix Halo zeigt dass mit dem passenden Advanced Packaging auch eine Mobil APU funktioniert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Icke-ffm und Fragger911
Ob man was sparen kann ist abhängig vom Produktssegment und der geplanten Die-Größe.
Ein monolithisches Design ist in der Regel effizienter. An der Power des packaging Verfahren lags glaube ich weniger, vielmehr an der Speicherlatenz bzw. wiederum an der Effizienz und den Kosten. Strix Halo ist ja die erste flächenmäßig größere APU.

Strix Halo hat ja 2 CCDs mit 8 Kernen und das SoC Die mit Cache und I/O und der IGP.
Würde man alles auf ein Die packen wären das gut 400mm², da lohnt sich das wohl schon.
Aber darunter sinkt zu einem ja die Defektwahrscheinlichkeit und zum anderen steigen die Kosten durch das packaging. Keine Ahnung wo da der break even point ist. Aber alles unter ~100-150mm² lohnt sich wohl nicht wirklich.
ETI1120 schrieb:
Strix Halo zeigt dass mit dem passenden Advanced Packaging auch eine Mobil APU funktioniert.
Ich bin gespannt, ob Gaming GPUs mit Chiplet Designs aufschlage und die interconnect Probleme angegangen werden. Kann mir das einfach nicht wirklich vorstellen, dass das schmerzfrei funktioniert.^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BAR86
ETI1120 schrieb:
APUs haben andere Betriebspunkte als dGPUs.

Was nützt es mehr Power in die GPU zu schieben wenn die Bandbreite limitiert.
Bei dem veranschlagten 256Bit SI käme man mit LPDDR6 auf etwa 410GB/s. Das wären rund 28% mehr als bei der RX9060XT, dessen Nachfolger AT3 vermutlich werden soll. Kein riesiger Fortschritt aber auch nicht ungewöhnlich für eine neue Generation.

ETI1120 schrieb:
Deshalb die Spekulation, ob der Die mit unterschiedlichen Speicherinterfaces kombiniert werden kann.
Den Haken sehe ich da beim Kosten-Nutzen-Verhältnis. Ein Kombi-Controller wäre verhältnismäßig komplex und den gleichen Chip mit verschiedenen SI auflegen erscheint mir auch recht viel Aufwand für begrenzte Zusatzperformance. Mag sein dass AT3 mit GDDR7 schneller wäre, aber genug um dafür einen extra Chiplet aufzulegen?
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Es senkt die Kosten massiv wie Sam Naffziger bei der Vorstellung von Zen 2 gezeigt hat.

Das AMD bisher bei den APUs monolithisch geblieben ist lag daran dass mit dem von AMD verwendeten Packaging Verfahren die Power zu hoch gewesen wäre.
exakt, es senkt die Kosten eben nicht in jedem Fall, etwa wenn ich im MCM Verfahren ein ähnlich effizientes Konstrukt bauen möchte.
Oder wenn ich wegen MCM eben nichtmal auf die Performance hinkomme die ich monolithisch erreiche - und damit billiger verkaufen muss.
Oder wenn ich eine vielzahl an kleinerer Chips baue kommt das teilweise günstiger als ein ähnliches Konstrukt aus mehreren Teilen zuerst zusammenzubauen.

usw.
Es gibt natürlich Kostenvorteile in vielen Szenarien, aber nicht in allen. Und es ist eben nicht immer von Vorteil, etwa im Mobilbereich oder auch mit - was auch immer AMD mit ihren Highend Radeon 7xxx vorhatten.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Quidproquo77 schrieb:
Ein monolithisches Design ist in der Regel effizienter.
Nicht unbedingt.

Hybrid Bonding und 3D Stacking erlauben effizientere Designs als wenn man alles in eine Ebene packt.

Organic und Glass Interposer haben viel bessere elektrische Eigenschaften als Silizium. Deshalb kann es bei großen Abständen sinnvoll sein selbst Signale die im Die bleiben über das Päckchen zu führen.

Quidproquo77 schrieb:
An der Power des packaging Verfahren lags glaube ich weniger
Es lag bei AMD am Packaging Verfahren. Wegen der großen Bump Size und große Abstände der einzelnen Leistungen im Substrat musste AMD die Signale über SERDES führen.

Außerdem ist es eine Standardangabe dass der Verbrauch je Bit bei Advanced Packaging um den Faktor 5 gegenüber einem klassischen Substrat sinkt
Quidproquo77 schrieb:
Keine Ahnung wo da der break even point ist. Aber alles unter ~100-150mm² lohnt sich wohl nicht wirklich
AMD hätte ohne Chiplets gar nicht dieses Produktportfolio bei Zen und Zen 2 aufbauen können, weil AMD nicht so viele monolithische Dies hätte entwerfen können.

Außerdem ist es unsinnig IO auf teuren Nodes zu implementieren. IO skaliert seit 14 nm praktisch kaum noch.

Auch deshalb finde ich die Erwähnung von Grafik Memory Die und Multimedia IO Die sehr interessant. Die Frage ist gibt es den MID bei RDNA5 wirklich oder hat jemand diesen Begriff aus den Patentanträgen von AMD heraus gezogen und in die RDNA5 Gerüchte reingeschmissen.
Ergänzung ()

BAR86 schrieb:
exakt, es senkt die Kosten eben nicht in jedem Fall, etwa wenn ich im MCM Verfahren ein ähnlich effizientes Konstrukt bauen möchte.
Beim MCM ist der Verbrauch je Bit um den Faktor 5 höher als bei Advanced Packaging.

Bei den geringen Datenraten der CPUs war das bisher kein großes Problem.

Bei den CPUs war das Problem dass der IFoP nur sehr begrenzt heruntergetaktet und nicht abgeschaltet werden konnte. Mit dem Sea of Wires oder Infinity Fabric Advanced Packaging wird das gehen.

Außerdem eröffnet Advanced Packaging den Weg andere Typen von Die einzuführen. Inklusive Chiplets für Optische Datenübertragung. Was beim Server unumgänglich ist.

Wenn man sich anschaut wie groß Strix Point geworden ist, dann ist es allerdings höchste Zeit dass AMD auf Chiplets geht. Allerdings bringt es wenig einen Chip nur aus Chiplets aufzubauen die in teuren Nodes hergestellt werden. Man muss dann auch die Funktionen so trennen das die Funktionen im optimalen Node implementiert werden können. Die Methode daraus wieder einen Chip zu machen heißt Infinity Fabric.
 
Zuletzt bearbeitet:
BAR86 schrieb:
@Icke-ffm Es senkt eben nicht automatisch die Kosten, das ist ja das...
Das Thema ist im ganzen an der Stelle jedoch weitaus komplexer und es hat auch unterschiedliche Gewichte. Und wie @ETI1120 ja anbringt, ist die große Produktvielfalt bei AMD bei den CPUs stark dem Chiplet-Design geschuldet.
BAR86 schrieb:
Und es ist eben nicht immer von Vorteil, etwa im Mobilbereich oder auch mit - was auch immer AMD mit ihren Highend Radeon 7xxx vorhatten
Klar, gibt es bei Chiplett-Design auch Nachteile, nur sind diese heute auch weitgehend fließend. Intel zeigt ja mit EMIB und nun Lunar Lake sowie Arrow Lake, dass man weitgehend die Nachteile der ersten Generationen dieser Chips überwunden hat. Ebenso zeigt es AMD bei MI300A und MI300X.

Die Kostenfrage ist hier relativ komplex, weil es verschiedene Ebenen gibt, die hier mit rein spielen und ebenso auch - und da hast du natürlich absolut recht - von welchen Kosten wir reden. Die energetischen Kosten sind beim "einfachen" Chiplet-Design, wie es AMD aktuell bei Ryzen und Epyc fährt, relativ hoch, gleichzeitig sind die Produktionskosten sehr niedrig.

Bei den modernen Designs, wie sie bei MI300 verwenden, steigen die Kosten natürlich auch an, weil ein Basetile, ein aktiver Interposer und Co benötigt werden. Gleichzeitig kann AMD hier sehr flexibel Produkte zusammen bauen und kann bestimmte Chiplets über eine Vielzahl von Produkten verwenden, was an der Stelle wieder Kosten kompensiert.

AMD verwendet den "normalen" Zen 5 Chiplets in 4 Produkt-Reihen: Epyc, Ryzen und Ryzen-Mobil bei den Halo Strix-Produkten sowie MI300A (oder waren das die 5C?, gerade nicht im Kopf.) AMD nutzt so einen Chip in einer Vielzahl von Produkten.

Auch bei MI300 fährt AMD mit den "GCD"s relativ gut, da sie relativ kleine GCDs, die gegen über Fehlern bei der Fertigung weniger anfällig sind. Dazu kommt die Skalierung, dass AMD hier mit einem Basetile quasi auch eine "Low-Cost"-Variante hinzufügen könnte.

An dieser Stelle spielt allerdings etwas ganz anderes eine Rolle für AMD: Skalierbarkeit. AMD konnte Intel mit Epyc nur so massiv angreifen, weil sie weil sie relativ einfach ihre Produkte skalieren konnten. AMD musste für Zen 2 Epycs genau 2 Dies entwerfen: CCD und IOD. Klar, diese auf ein Package zu packen, ist teurer als nur ein Chip auf das Package zu packen, nur sind diese Kosten relativ. AMD konnte so relativ einfach 8 - 64 Kerne anbieten und kann sogar relativ einfach entsprechend der Nachfrage beim "Zusammenkleben" entscheiden, was sich für sie mehr lohnt.

Für AMD wäre es vermutlich ein Befreiungsschlag, wenn sie eine gut skalierende Chiplet-GPU hinbekommen, weil man dann zwar bei den kleineren Chips etwas höhere Kosten hätte pro Chip, gleichzeitig jedoch auch einen Big-Chip auflegen könnte und wenn man merkt, dass die Leute den Kaufen, dann wird er stärker produziert, wenn man merkt, dass er nicht geht, kann man die Chiplets für die mittleren und kleinen GPUs nutzen.
 
ETI1120 schrieb:
Beim MCM ist der Verbrauch je Bit um den Faktor 5 höher als bei Advanced Packaging.
...
Das mag bestimmt richtig sein, bei der Kommunikation usw.
War ja nicht mein Thema, mein Thema ist, dass MCM oder Chiplet-Design nicht pauschal günstiger ist.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Quidproquo77 schrieb:
Ich bin gespannt, ob Gaming GPUs mit Chiplet Designs aufschlage und die interconnect Probleme angegangen werden. Kann mir das einfach nicht wirklich vorstellen, dass das schmerzfrei funktioniert.^^
Was ich mir vorstellen könnte, wäre ein Die Base mit SI und großen L3 Cache , media Core, npu und direkt drauf dann die kleineren GPU Diese die dann über den gemeinsamen L3 Cache Daten verbunden werden. Ist aber meine naive Vorstellung. Jeder Chip müsste dann aber ein eigener Shader Array sein.
Wenn AMD per Software es schafft pro Shader Array sauber die Aufgaben zu packen muss das doch passen?
Wie gesagt meine naive Vorstellung.

Und wenn der Base-Die selbst skallierbar ist und sogar für Compute Schiene verwendbar, könnte man mit einem Base-Baustein und UDNA Baustein wie bei Zen von kleinen Notebook chip bis High Performance Compute alles abdecken. Dann wäre es zwangsweise billiger.

Es wäre gut wenn Microsoft das auch als Vorteil sieht und hier mitwirkt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
drago-museweni schrieb:
Habe es mal verbessert, dann hätte der Chip richtig Power bei den Namen :D
Stimmt, aber dann würde der Chip auch nur heiße Luft produzieren und Saures Lüngerl essen xD

Und leisten würde er weniger als Navi..
 
  • Gefällt mir
Reaktionen: ETI1120
BAR86 schrieb:
Das mag bestimmt richtig sein, bei der Kommunikation usw.
War ja nicht mein Thema, mein Thema ist, dass MCM oder Chiplet-Design nicht pauschal günstiger ist.
Es ist zwar Dein Thema. Dieses Thema ist aber nicht sonderlich relevant.

pipip schrieb:
Was ich mir vorstellen könnte, wäre ein Die Base mit SI und großen L3 Cache , media Core, npu und direkt drauf dann die kleineren GPU Diese die dann über den gemeinsamen L3 Cache Daten verbunden werden. Ist aber meine naive Vorstellung. Jeder Chip müsste dann aber ein eigener Shader Array sein.
Was Du da beschreibst ist im Grund in der MI300 und der MI350 realisiert.
1757096966677.png

AMD CDNA4 WhitePaper

Auf einem IOD sitzen 4 XCDs. Der Silizium Interposer ist nur erforderlich weil die MI350 HBM als Speicher verwendet und weil beide Stacks eine GPU bilden.
pipip schrieb:
Wenn AMD per Software es schafft pro Shader Array sauber die Aufgaben zu packen muss das doch passen?
Wie gesagt meine naive Vorstellung.
Wenn die Verbindungen zwischen den einzelnen Dies denen einer monolitischen GPU entsprechen ändert sich aus der Sicht der Software rein gar nichts. Es ist eine GPU.

pipip schrieb:
Und wenn der Base-Die selbst skallierbar ist und sogar für Compute Schine verwendbar könnte man mit einem Base-Baustein und UDNA Baustein wie bei Zen von kleinen Notebook chip bis High Performance Compute alles abdecken. Dann wäre es zwangsweise billiger.
Die Größe des Base-Die legt fest wie viele Grapic Compute Dies man unterbekommt. D. h., für jede Größe benötigt man einen eigenen Base Die. D. h., es skaltiert schlecht.

Erst wenn man mehrere Base Dies kombiniert, skaliert das ganze. Aber um die Base Dies zu verschalten ist ein heute ein Silizium Interposer erforderlich.

Die MI300 hat 4 IOD weil damals die maximale Die Size fürs Hybrid Bonding nicht mehr zulies. heute sind größere Dies möglich, deshalb verwendet AMD nur noch 2 Base Dies.
 
  • Gefällt mir
Reaktionen: pipip
ETI1120 schrieb:
Es ist zwar Dein Thema. Dieses Thema ist aber nicht sonderlich relevant.
Es war ausreichend relevant für dich, dass du auf einen Post den ich jemanden anderen geschrieben habe antwortest. Dass du dann wieder irgendwas anderes postest, nur um am ende "recht" zu behalten ist einfach dein "Diskussionsverhalten", das schon von mehreren Seiten kritisiert wurde, du aber offenbar nicht reflektierst
 
@BAR86
Danke, es ist immer wieder nett wie Du reagierst, wenn man im selben Tonfall wie Du antwortet.

Du hast verstanden, dass es in dieser News um Chipletarchitekturen geht?
 
ETI1120 schrieb:
@BAR86
Danke, es ist immer wieder nett wie Du reagierst, wenn man im selben Tonfall wie Du antwortet.
Das mag dir so scheinen, ich hab aber genau umgekehrt den Spiegel vorgehalten.

Ich habe auf einen anderen User geantwortet, du hast dich wichtig gemacht und wenn man dir klar macht, dass es leider nicht um dich ging, erklärst du das Thema für die ganze Welt als eigentlich nicht wichtig und man möge doch bitte weitermachen im Thema.
Dann misch dich halt nicht ein ;)

warst du nicht auch ganz rege bei der Diskussion beteiligt, dass man kein Gehäuse um die GPU bauen könnte mit Partikelfilter... und dann kam irgendwie nix mehr, als ich das mathematisch widerlegt hab... na gut, das kann auch wer anderes gewesen sein.
ETI1120 schrieb:
Du hast verstanden, dass es in dieser News um Chipletarchitekturen geht?
Hast du verstanden worauf ich geantwortet habe?
 
ETI1120 schrieb:
Eben das meinte ich ja, es hängt von der Produktkategorie und der Die Größe ab.
Pauschalaussagen lassen sich davon ja nicht ableiten, deshalb habe ich ja den Beitrag erst verfasst.
ETI1120 schrieb:
Hybrid Bonding und 3D Stacking erlauben effizientere Designs als wenn man alles in eine Ebene packt.
Das kommt darauf an wieviel Schnittstellenverluste ich habe, wie das design thermisch reagiert und wieviel Energieverlust ich habe, die bei einem monolithen sonst in höhere Taktraten gesteckt werden können.
Auf der anderen Seite gibt es eben ab einem bestimmten Punkt dann Vorteile für hybrid bonding/3D stacking, I/O skaliert nicht mehr, verschiedene, angepasste Prozesse usw.
Die yield rate ist mit stacking/bonding ja auch eher niedriger. Das ist ja nix anderes wie ein Werkzeug, welches man einsetzt. Je einfacher das Design und je kleiner der Chip desto weniger wird sich das lohnen.

Ich kauf ja auch keinen Elektrohammer, wenn ich nur einen Nagel in die Wand schlagen muss.
Die Vorteile die du nennst, sind unbestritten.
ETI1120 schrieb:
Es lag bei AMD am Packaging Verfahren. Wegen der großen Bump Size und große Abstände der einzelnen Leistungen im Substrat musste AMD die Signale über SERDES führen.
Ja, die Verbindungen waren ineffizient, das ist soweit schon korrekt, nur habe ich Power nicht unbedingt mit der fehlenden Effizienz der seriellen Datenübertragung und den großen phsyischen Abständen zwischen den einzelnen chiplets assoziert. Das war an der Stelle dann einfach ein Missverständnis.
ETI1120 schrieb:
Die Frage ist gibt es den MID bei RDNA5 wirklich oder hat jemand diesen Begriff aus den Patentanträgen von AMD heraus gezogen und in die RDNA5 Gerüchte reingeschmissen.
Es gibt ja für alles mögliche irgendwelche Patentanträge, die dann am Ende nicht im finalen Produkt zu finden sind, sondern verworfen werden. Alles kleinteilig so auszugliedern was nicht mit modernen Prozessen skaliert funktioniert auch nur bis zu einem bestimmten Grad. Was denke ich als mittlerweile gesichert betrachtet werden kann sind die verdoppelten Shader je CU.

Andererseits könnte AMD durch die "vollständige Modularität" viele chiplets in mehreren Produkten einsetzen und das je nach Anforderung maßgeschneidert skalieren, selbst wenn es mehr kosten würde. Time to market ist auch entscheidend.
ETI1120 schrieb:
Bei den CPUs war das Problem dass der IFoP nur sehr begrenzt heruntergetaktet und nicht abgeschaltet werden konnte.
So könnte AMD das aktuelle Problem ihrer CPUs auch wirklich angehen. Der Idle Verbrauch war der Grund, warum ich den 285K geholt hab.
ETI1120 schrieb:
Mit dem Sea of Wires oder Infinity Fabric Advanced Packaging wird das gehen.
100%
ETI1120 schrieb:
Wenn man sich anschaut wie groß Strix Point geworden ist, dann ist es allerdings höchste Zeit dass AMD auf Chiplets geht.
Ja die Zukunft gehört modularen Designs, das ist völlig klar. Funktionale Trennungen und Fertigung im passenden Node werden sich immer mehr lohnen.
ETI1120 schrieb:
Es ist zwar Dein Thema. Dieses Thema ist aber nicht sonderlich relevant.
Das wird auch in Zukunft noch relevant genug sein, es wird weiterhin bei günstigen Produkten eingesetzt werden, schon aus dem einfachen Grund, weil ein einzelner Die einfacher zu testen bzw. zu validieren ist.
Es gilt eben nicht pauschal und mehr wollte @BAR86 nicht sagen.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
Eben das meinte ich ja, es hängt von der Produktkategorie und der Die Größe ab.
Pauschalaussagen lassen sich davon ja nicht ableiten, deshalb habe ich ja den Beitrag erst verfasst.
Pauschalaussagen sind in der Regel falsch. Das Negieren einer falschen Aussage ergibt zwar eine richtige Aussage. Aber diese negierte Pauschlaussagen sind trivial, trivial ist uninteresant und damit irrelevant.

Im übrigen ist die gesamte Betrachtungsweise "Chips aufteilen" IMO falsch. Es geht darum wie man Chip aufbaut, das interessante Konzept an der ganzen Sache ist Heterogeneous Integration. Und bei AMD sind es weniger die Chiplets als das Infinity Fabric. Denn auch die monolithischen APUs basieren auf dem Infinity Fabric.

Das Konzept einen Chip aus mehreren Dies aufzubauen, hat schon Gordon Moore in seinem Paper beschrieben, das als Basis von Moore's Law gilt.

Es gab in all den Jahren immer Mal wieder Chips die aus mehreren Dies aufgebaut waren, aber diese blieben Sonderlinge oder waren Eintagsfliegen. Die Halbleitertechnik brachte regelmäßig neue Nodes heraus die die doppelte Anzahl von Transistoren auf derselben Fläche zu nur leicht höheren Preise der Wafer ermöglichten.

Wir sind nun in einer Zeit angekommen bei dem sich Moore's law in dem Sinne verlangsamt, dass die neuen Nodes die Transistordichte nicht mehr verdoppelt. Die Taktfrequenz steigt so oder so nur noch langsam. Aber die Kosten der Wafer steigen immer stärker. Die Kostensteigerung ist offensichtlich wenn man anschaut wie trivial die Planartransistoren aufgebaut waren und wie viel komplexer die FinFET waren. Die GAA-FET werden noch einmal viel komplexer. Komplexer bedeutet, man benötigt mehr Masken zur Herstellung der Transistoren.

Neue Chips zu entwerfen bedeutet in der regel mehr Transistorfunktionen wie beim Vorgänger zu implementieren. Die langsamer werdende Skalierung kann man nur begrenzt dadurch kompensieren die Dies größer zu machen. Das Reticle Limit beträgt 26 mm x 32 mm.

Server-CPUs sind schon längst über dem Reticle Limit, Data center GPUs ebenfalls. Es ist absehbar, dass Gaming GPUs ebenso das Reticle Limit überschreiten.

Abgesehen vom Reticle Limit gibt es noch die Faktoren Fehlerrate, ungleichmäßige Skalierung von Logik, SRAM & Anlaog (I/O) und inkompatible Technik. Inkompatible Technik beutet, dass zum Beispiel DRAM sich nicht mit der Prozesstechnik für Logik herstellen lässt.

Eine grobe Metrik für Chips ist PPAC (Performance, Power, Fläche, Kosten)

Kosten ist relativ neu dazugekommen. Früher war die PPA eines neuen Nodes so viel besser als die PPA eines alten Nodes. Es hat keinen Sinn ergeben die Fertigung eines neuen Chips in einem alten Node zu erwägen. Das hat sich geändert.

Mit Advanced Packaging und Heterogenous Design ist klar, dass man Kosten nicht mehr trivial aus der Die Fläche berechnen kann. Wenn man die Konzepte beherrscht und diese auf den Chip anwendbar sind, gibt es neue Freiheitsgrade beim Entwerfen von Chips.

Quidproquo77 schrieb:
Ja die Zukunft gehört modularen Designs, das ist völlig klar. Funktionale Trennungen und Fertigung im passenden Node werden sich immer mehr lohnen.
Schon die Gegenward bei Clients und Servern gehört den Heterogeneous Design. Glaubst Du Intel kehrt bei den Client CPUs zu monolitischen Design zurück?

AMD wird sich keinen IMO monolitischen Nachfolger von Strix Point leisten. Die monolithschen Dies bei AMD werden in Zukunft wie der IOD mindestens einen Node zurück bleiben. Wenn die Gerüchte zu RDNA stimmen sind 2 von 4 Dies als Chiplet konzipiert.
 
Zurück
Oben