News GPUs im Chiplet-Design: AMD-Patente bringen den Cache ins Spiel

Che-Tah schrieb:
Ein Chiplet design bringt ja auch nur Vorteile je mehr Chiplets es sind.... für 4 Chiplets wird sich der Aufwand kaum lohnen.

Falsch. Du musst ein gesundes Mittel finden, was gut produzierbar ist und gut skalierbar ist. Viele Chiplets erhöhen den Packaging Aufwand enorm und Themen wie Latenzen und die Kommunikation zwischen den Chips werden zum Problem. Aus dem Grund hat ein Zen Chiplet auch 8 Kerne und die Consumer CPUs 1-2 Chiplets verbaut, statt 8-16 Chiplets mit nur je einem Kern.

Chiplets machen dann Sinn, wenn man Sie gut und effizient skalieren kann und nicht nur in hoher Anzahl. Besonders bei einer stabilen Fertigung mit guten Yields.
 
  • Gefällt mir
Reaktionen: LukS, el_mongo, konkretor und 2 andere
DavidG schrieb:
Das ist eine Momentaufnahme. Ende des Jahres dürfte Intel gut dabei sein und es dürfte dann auch für Nvidia eng werden.
Auf einen Brecher werden die sicher nicht alles einreissen. Und meines Kenntnisstandes nach ist Intel's Ziel glaube ich eher erstmal die gesunde Mittelklasse da hier wohl recht viel zu holen ist. Highend wird lange die "Zankerei" zwischen AMD und NV bleiben...

Che-Tah schrieb:
Ich dachte Chiplet-GPUs sind noch Jahre weit entfernt.
Kann gut sein. Es ist aber sicher nicht falsch bereits jetzt mal solche Sachen/Ansätze zu patentieren. Kommt man zufälligerweise genau hin das die Konkurrenz mit in das Patent reinfällt lassen sich da auch ein oder zwei Scheine mit machen....evtl.
 
  • Gefällt mir
Reaktionen: Rockstar85 und Mcr-King
Diese Thematik ist mir einfach zu abstrakt, daher bleibt mir nur die Hoffnung, dass das technologisch so wie erhofft klappen wird und die Frage, ob AMD sich so aus der SI Falle endgültig retten kann, für die sie erst mal den Cache Workaround bei RDNA 2 haben / in die Nvidia derzeit unrettbar gefangen scheint.



modena.ch schrieb:
Grafiktreiber konnten sie noch nie....
DAS! und jetzt stelle man sich mal vor, wie Intel auch noch alle paar Tage / Wochen, zum Release eines neuen Spiels, dann auch einen neuen Treiber nachreicht, so wie AMD und Nvidia es tun, damit das Spiel auf der Intel Karte ordentlich läuft...
Ich bleib dabei, Intel bastelt an einer Computing GPU, die in kleinster Form auch als IGP nutzbar ist. Jegliche Befähigung als "Spiele GPU" ist eher zufälliger Beifang
 
Zen 4 und RDNA 3 sind aber noch Zukunftsmusik und sollen voraussichtlich Ende 2022 erscheinen.

So schnell wie die Zeit vergeht, finde ich Ende 2022 garnicht mal so weit entfernt. Ich bin mir nichtmal sicher, ob die die ganzen Lieferengpässe bis dahin gelockert haben.
 
  • Gefällt mir
Reaktionen: danyundsahne, Marc53844, cbmik und eine weitere Person
Ich freue mich darauf mehr darüber zu erfahren, wenn es soweit ist.
Ich finde das Thema sehr Interessant.

Fraglich ob hier überhaupt ein typisches Problem von SLI/Xfire besteht, denn die Chiplets werden vom System ja als eine GPU wahrgenommen und teilen sich den L3-Cache soweit ich das sehe..?
 
  • Gefällt mir
Reaktionen: Colindo und GerryB
This also allows for the registry and cache to be exposed as a unified block for developers, abstracting them from having to program towards a system with a tri-way cache design.
(schreibt TPU dazu)
 
  • Gefällt mir
Reaktionen: derSafran
MeisterOek schrieb:
So schnell wie die Zeit vergeht, finde ich Ende 2022 garnicht mal so weit entfernt. Ich bin mir nichtmal sicher, ob die die ganzen Lieferengpässe bis dahin gelockert haben.
Das glaube ich auch, rdna 2 wird verfügbar und dann soll rdna 3 aufeinmal kommen, wenn rdna 2 schon nicht auf die Straße kam dann wirds bei dem Nachfolger die gleiche Katastrophe.
 
So Chiplets mit jeweils 40 CUs wäre schon der Hammer, das könnte auch nVidia ins Schwitzen bringen, wenn man 4 Chiplets auf ein Interposer unterbringen kann. Das wird sehr interessant werden, wenn die Dinger dann mal erscheinen werden.
 
Abwarten!
Erst steht an 6700er ausreichend und zu für uns Kunden guten Preisen zu liefern.
 
Evtl. kommts ja erstmal als GCN für Workstation.

Für die kleinen Consumerchips reicht ja eigentlich der Fortschritt in der Fertigung. 6/5nm+4/3nm
(also noch kein Chiplet dringend erforderlich)

Die letzte/heutige Entwicklung zu Grakas>300W und CPU >200W ist einfach nur "unhandlich".
(man könnte ja wie bei Autos@250km/h ein Gentlementsagreement zu W treffen)
 
Zuletzt bearbeitet:
ich frag mich wie weit sich so eine gpu dann hochskalieren lässt. bekommen wir vielleicht die performance einer sli/crossfire-lösung über eine karte (logischerweise auch mit dem entsprechenden preis)?
 
Che-Tah schrieb:
Ich dachte Chiplet-GPUs sind noch Jahre weit entfernt.
Nö. Intel wird sie in diesem Jahr präsentieren. Mit 37Watt TDP bei 1.21 Gigawatt Leistungsaufnahme durften die speziell vorselektierten Vorserienmuster allerdings maximal 320 Sekunden lang betrieben werden bevor sie anfingen sich durch den Fußboden in Richtung Erdkern zu schmelzen.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, konkretor und modena.ch
Fuchiii schrieb:
Fraglich ob hier überhaupt ein typisches Problem von SLI/Xfire besteht, denn die Chiplets werden vom System ja als eine GPU wahrgenommen und teilen sich den L3-Cache soweit ich das sehe..?
AMD gibt extra an, dass es von Anfang an so designt wird, dass kein Xfire-Problem besteht. Die Software sieht nur eine GPU.

Meine Spekulatius: AMD wird es zuerst auf RDNA bringen, denn nur da gibt es bisher einen L3-Cache. Warum da nicht weitermachen, statt bei CDNA erstmal einen L3-Cache einzuführen?
Außerdem wird AMD durch diese Patente, in denen Claims sehr weitreichend abgesteckt sind, auf Jahre einen Vorteil gegenüber Nvidia haben. Falls Nvidia keine Lücke im Patentschutz findet, hat AMD bis 2039 das alleinige Recht, GPU-Chiplets über HBX oder Active Bridge zu verbinden. Dazu sind beide Fertigungsmethoden patentiert! Es sieht echt düster für Nvidia aus.
 
  • Gefällt mir
Reaktionen: 8087, jemandanders und Fuchiii
Dass das so kommen wird, war doch bei Vorstellung von RDNA2 schon klar :) Der Infinity Cache als gelister Shit von RDNA 2 ist ja nur ein echt fetter L3 Cache. Dass dieser L3 Cach eben nicht nur eingeführt wird, um das Speicherinterface kleiner machen zu können bei gleicher Leistung, sondern ein Zwischenschritt zu einem Chiplet Design sein wird, haben damals genug Leute geschrieben. Daher überrascht mich diese Ankündigung Null.

De Fakto hat AMD mit RDNA1 bereits darauf hin zugearbeitet
RDNA1 war das grundlegende Design des Chips, mit klassischem Speicherinterface
RDNA2 war dasselbe Design mit mehr Takt, etwas weniger IPC (um den Mehrtakt rauszuholen) und dem L3 Infinity Cache
RDNA 3 wird im Grunde derselbe Chip sein, nur als Chiplets und dem Infinity Cache als active Bridge
bei RDNA 4 wird dann bestimmt wiederum der Compute Teil redesignt :)


RDNA 1 wurde bereits mit diesem Wissen im Hintergrund designt, dass darauf basierend einmal ein Chiplet-Design mit active Bridge L3 entstehen wird.

Man kann hier von Anfang an einen klaren Plan erkennen, in welche Richtung das gehen soll.
 
  • Gefällt mir
Reaktionen: el_mongo und Makso
Also jetzt zu spekuliern das NV net kann ... ist verfrüht.
Mit NV-Link gibts ja ähnlich Ausbaufähiges.(nutzt gemeinsamen Vram-Pool)
 
Haldi schrieb:
Das wird richtig interessant für Cloud Gaming.
Wenn das nicht alles in Hardware fest steht sondern via Software partitioniert werden kann laufen da problemlos mehrere Games auf einer einzigen GPU und jede Anwendung kriegt X Chiplets und Y Anteile VRAM.
Das kann dann dynamisch zugeteilt werden wer wie viel braucht.
das ist heute schon so.
 
  • Gefällt mir
Reaktionen: Haldi
Colindo schrieb:
Meine Spekulatius: AMD wird es zuerst auf RDNA bringen, denn nur da gibt es bisher einen L3-Cache. Warum da nicht weitermachen, statt bei CDNA erstmal einen L3-Cache einzuführen?
Der L3 Cache ist ja auch nur auf RDNA2, RDNA1 hat ihn nicht. Von CDNA2 gibt es doch bisher auch noch keine Produkte, die können ja wie RDNA2 genausogut schon von Anfang an mit L3 geplant sein.
 
  • Gefällt mir
Reaktionen: Zwiebelsoße, Colindo und FeelsGoodManJPG
Colindo schrieb:
Es sieht echt düster für Nvidia aus.
Sofern sie nicht irgendeinen anderen "heißen Scheiß" im Petto haben, wohl.

Was gibts denn eigentlich von Nvidia / Intel für Patente, was MCM GPUs betrifft? Was ich bisher von Nvidia gesehen habe, war / sollte nebeneinander auf einem Interposer liegen. Gibts da was neues?

@Colindo Ich lese das Patent unter Anspruch Punkt 8 -9 so, das die Chiplets auch noch (den bisherigen) Cache Speicher besitzen und das aktive Brückenchiplet halt noch zusätzlichen Speicher bereitstellt. Der Cache wandert also nicht komplett nach oben, sondern wird ergänzt.

8. Das System nach Anspruch 1, ferner umfassend: eine erste Cache-Speicherhierarchie an dem ersten GPU-Chiplet, wobei eine erste Ebene der ersten Cache-Speicherhierarchie innerhalb des ersten GPU-Chiplets kohärent ist; und eine zweite Cache-Speicherhierarchie an dem zweiten GPU-Chiplet, wobei eine erste Ebene der zweiten Cache-Speicherhierarchie innerhalb des zweiten GPU-Chiplets kohärent ist.

9. System nach Anspruch 8, wobei die Ebene des Cache-Speichers am aktiven Brücken-Chiplet einen vereinheitlichten Cache-Speicher umfasst, der sowohl eine letzte Ebene der ersten Cache-Speicherhierarchie als auch eine letzte Ebene der zweiten Cache-Speicherhierarchie enthält, wobei der vereinheitlichte Cache-Speicher über das erste und das zweite GPU-Chiplet des GPU-Chiplet-Arrays kohärent ist.


Für mich sieht das alles nach viel Kraft aus.
 
  • Gefällt mir
Reaktionen: Pumpi und Onkel Föhn
Zurück
Oben