News Radeon RX 7000 & MI300: RDNA 3 kommt mit Chiplets, aber erst CDNA 3 stapelt sie

Zap Zockt schrieb:
Schade, immer noch kein exakteres Release-Zeitfenster. Ich hoffe, RDNA3 wird wirklich noch dieses Jahr auf den Markt kommen, und dann auch wenigstens halbwegs verfügbar sein. RX 7800 XT für unter 1k € wäre ein Traum

warum wäre diese Karte ein Traum? Du kennst die specs doch gar nicht.

ps. Ich freue mich auch auf die kommende 4060, einfach weil ich neugierig bin was diese wohl Leisten wird und vermutlich am ehesten zu meinen Anforderungen passt. Solange ich aber die letztlich Leistung, und vor allem die Leistungsaufnahme nicht kenne, bin ich weit davon entfernt die unbekannte Karte als Traum zu bezeichnen :schluck:
 
Apocalypse schrieb:
Warum eigentlich?

Es gibt halt erstaunlich viele die denken dass due angegebene Maximalleistung ununterbrochen anliegt, und nicht nur in wenigen Ausnahmesituationen...
 
Colindo schrieb:
@ETI1120 N6 stand auf der LinkedIn-Seite? Das könnte unter Umständen veraltet sein. Sieht auf jeden Fall so aus, als würde die Folie das widerlegen.

Das waren die Antworten:

1654862481642.png


1654862674848.png



Es ging glaube ich zuerst die Infos herum und dann wurde der Screen gezeigt. Der wurde natürlich prompt gelöscht.

Von VideoCardz:
1654863220688.png


Folgende Erklärungen sind möglich:
  • Ein Mitarbeiter hat aus Versehen zu viel Informationen auf die Website gestellt
  • AMD hat sich einen Spaß erlaubt. Und einen Mitarbeiter gebeten eine Nebelkerze zu zünden
Mir waren schon damals diese Bestätigung ein bisschen suspekt.
Heute nach dem FAD neige ich noch stärker zur 2. Interpretation.
Die Infos zu MI300 sind offensichtlich falsch.

Da wo er angeblich arbeitet veralten keine Informationen. Das ist an der Quelle.
 
Zuletzt bearbeitet:
Colindo schrieb:
Vielleicht war damals noch nicht sicher, ob es N5 oder N6 werden wird?
Das schließe ich aus. Zu dem Zeitpunkt an dem die Person mit dieser Aufgabenbeschreibung involviert ist, ist klar welcher Prozess gewählt wird. Es geht ja nicht darum was AMD vorhat, sondern an welchen Projekten die Person aktiv mitarbeitet oder mitgearbeitet hat.
Colindo schrieb:
Wobei das ja schon ein massiver Unterschied ist, und nur Navi33 in N6 zu fertigen ist auch Unsinn.
Das ist mir auch in den letzten Wochen auch so langsam gedämmert.

Deshalb habe ich Kepler gefragt, und dieser Punkt war Teil meiner Frage.

Es würde bedeuten, dass AMD die ihre RDNA-3-Funktionsblöcke (IP) zwei Mal designen muss. Aus diesem Grund geht die Phoenix Point APU auch auf RDNA 3. Hätten sie RDNA 2 verwendet, hätte AMD extra für diese APU die RDNA-2-Funktionsblöcke auf 5 nm designen müssen.
 
  • Gefällt mir
Reaktionen: Jan und Colindo
DannyA4 schrieb:
Vor dem Hintergrund wundert es mich dann aber schon, dass du zur 3080 gegriffen hast und nicht zur 6900XT.
Anhang anzeigen 1226687Anhang anzeigen 1226688
Wie gesagt:
Bei dem Versuch, ne AMD-Karte am Release-Tag zu bekommen, bin ich wie alle aus Europa immer wieder aus dem Shop geflogen, und die ersten Custom Modelle etwas später, die ich haben wollte, waren damals nicht unter 1200€ zu kriegen. Die 3080 war ne Retoure im Outlet und hat "nur" runde 1000 gekostet.

Davon abgesehen gingen die Meinungen im pimax-openmr-Forum zu der Zeit auch noch etwas auseinander, die Entwicklung der Preise war ungewiss (bzw eher mit Vorhersage weiter steigend) - und da war dann die 3080 einfach das Optimum, das ich zu dem Zeitpunkt und in dem Preisrahmen ergattern konnte, ohne meinen Erstgeborenen verpfänden zu müssen ;)
 
  • Gefällt mir
Reaktionen: DannyA4
pvcf schrieb:
Es gibt halt erstaunlich viele die denken dass due angegebene Maximalleistung ununterbrochen anliegt, und nicht nur in wenigen Ausnahmesituationen...
Dass man die Leistung einer teuren GPU, die man idR kauft, weil man so viel Leistung braucht, nur in Ausnahmefällen nutzen würde, halte ich aber für ein Gerücht.

Klar kann ich meine Games auch mit Settings und FPS Limits nutzen, bei denen meine GPU überall nur 200W statt 300W zieht. Aber dann hätte ich mir auch direkt 500€ sparen und ne schwächere GPU kaufen können.
Man könnte auch sagen damit kann man in Zukunft mit den gleichen Limits noch länger was von der Karte haben, allerdings verbraucht sie ja dann später auch mit diesen Limits ihre 300W während die GPUs die man zu dem Zeitpunkt kaufen kann, die gleiche Leistung bei weniger Verbrauch haben.

Möchte ich aber eine gewisse Performance erreichen und die GPUs bieten mir die gewünschte Performance nur mit >300W, dann muss sie auch während ich spiele konstant >300W verbrauchen.
 
  • Gefällt mir
Reaktionen: Zap Zockt, danyundsahne, branhalor und eine weitere Person
pvcf schrieb:
Es gibt halt erstaunlich viele die denken dass due angegebene Maximalleistung ununterbrochen anliegt, und nicht nur in wenigen Ausnahmesituationen...
Dein Argument ist ungültig, da dies auch bei einer 250 Watt Karte der Fall ist.
 
guggi4 schrieb:
Aus welcher Glaskugel hast du das denn? Die Leaker sind sich ja noch nicht einmal bei den Specs einig, aber du hast schon Infos zu den Frametimes?
AMD hat mal in einem Podcast als es um Dual GPU ging einen entsprechenden Ansatz mit zwei Chips und einem I/O Chip diskutiert und die Probleme hinsichtlich des "Framepacings" benannt, welches so ein spekulativer I/O Chip übernimmt. Gefahren sind µcrotearing, niedrige min FPS, schwache Frametimes, Verluste wegen höherem Verwaltungsaufwand und das ist natürlich eine Schwäche von RDNA3 bzw. allgemein von Multi GPU Lösungen. Wirklich lösen wird man das wohl erst mit 3D Stacking.
 
@Katzerino88 Wär cool, wenn du den Podcast raussuchen könntest. Mich interessiert nämlich, wie lange das her ist, dass AMD über so einen Ansatz gesprochen hat und dabei Dual GPU genannt hat. Sicher, dass es nicht darum ging, dass so ein I/O-Chip die ganzen Probleme verhindert, die mit Dual GPU auftreten?

RDNA3 ist nämlich sicher keine Multi-GPU-Lösung. Es ist EINE GPU aus mehreren Chiplets. Wie aktuell die CPUs.
 
  • Gefällt mir
Reaktionen: Beitrag
Colindo schrieb:
Ja genau, das hatte mich gestört. Dass Chips mit der Zeit immer besser gefertigt werden, ist aber tatsächlich überall so und deswegen hier als Vorwurf an AMD ein wenig unpassend.
Zumal es sich auch kein Hersteller finanziell leisten kann, mit dem Release eines Produkts so lange zu warten, bis die Architektur bzw. Fertigung bis ins Letzte ausoptimiert ist. Irgendein Modell ist immer "das Erste" einer neuen Architektur/Fertigung und ist ja auch nicht so, dass dieses Modell bewusst halbfertig auf den Markt kommt, sondern schlicht das aktuell realisierbare Produkt.
 
GT200b schrieb:
die Frage ist, ob es Mikroruckler wie einst bei SLI/Crossfire gebe wird?
Ja. Vielleicht nicht so stark, aber man wird es messen und evtl. auch spüren können.
 
Zuletzt bearbeitet:
Colindo schrieb:
Es kann gar nicht zu Mikrorucklern führen, weil keine 2 GPUs erkannt werden.
Du meinst wie bei den Voodoo Grafikkarten? Das würde aber dazu führen, dass der Multichipansatz sehr ineffizient wird und man Leistung sowie Chipfläche verschenkt.
Das wäre eigentlich abwegig, weil dann der Vorteil einer Multichiplösung aufgefressen wird, wenn mehrere Chiplets gemeinsam an einem Bild arbeiten.

Colindo schrieb:
Das einzige, was schiefgehen kann, ist dass die vielen Shader der zusätzlichen Chiplets nicht ausgelastet werden. Aber da hat AMD zuletzt die besten Fähigkeiten demonstriert.
Wenn das der Fall wäre, wäre das der Tod der Technologie.
Damit ist AMD schon bei den superscalar shadern der VLIW 5 Technologie gescheitert.
AMD wird die Technologie rein wirtschaftlich auf maximale Auslastung trimmen müssen und die maximale Performance zuungunsten der Frametimes herausholen, nur dann würde dieser Chipletansatz wirtschaftlich sein.
 
Zuletzt bearbeitet:
Das Chiplet Design dürfte auch nicht mit Crossfire/SLI vergleichbar sein, da die Funktionsweise komplett unterschiedlich ist. Die Chiplets sind ja keine separaten GPUs mit jeweils eigenem Grafikspeicher sondern eine gemeinsame GPU aus mehreren Chiplets mit gemeinsamem Grafikspeicher. Bei Crossfire/SLI kommen die Mikroruckler meines Wissens durch die nötige Synchronisierung der GPUs über die Crossfire/SLI Verbindung. Das fällt bei Chiplets ja weg, da die Chipslets auf den gemeinsamen Speicher zugreifen und somit nichts synchronisiert werden muss.
 
[wege]mini schrieb:
ist es Kundenverarsche.

Es wird mit kleinerer Zahl ein besseres Produkt suggeriert.
Erklär das bitte Mal. Es ist doch besser ? Mal abstehen davon dass die Fertigungsgröße an sich ja erst Mal kein feature ist mit dem man irgendwen verarschen könnte
 
Colindo schrieb:
Wär cool, wenn du den Podcast raussuchen könntest. Mich interessiert nämlich, wie lange das her ist, dass AMD über so einen Ansatz gesprochen hat und dabei Dual GPU genannt hat. Sicher, dass es nicht darum ging, dass so ein I/O-Chip die ganzen Probleme verhindert, die mit Dual GPU auftreten?
Das war zu einer Zeit als AMD die Zusammenarbeit von APU und dedizierter GPU als Feature anpries und HSA noch in aller Munde war. Ist natürlich alles davon abhängig wie der I/O Chip die beiden Chiplets verwaltet und wie regelmäßig die berechneten Bilder am Ende von der GPU an den Monitor ausgegeben werden.
Colindo schrieb:
RDNA3 ist nämlich sicher keine Multi-GPU-Lösung. Es ist EINE GPU aus mehreren Chiplets. Wie aktuell die CPUs.
Und damit eine Multi GPU Lösung nur auf Hardwarebasis, also auf einer Platine, was beispielsweise die 7950GX2 über Umwege schon konnte.Wenn es eine solche Lösung wäre, wäre die Skalierung zu mickrig und das ganze Design würde nicht aufgehen. Nur meine Meinung. Der I/O Chip muss beiden Chiplets die Aufgaben zuschieben Am Ende verhält es sich wie ein einziger Chip. Als Spiele GPU wäre das dann eine Luftpumpe, als reine Renderlösung das non plus ultra.
Mich wundert warum diese Problematik nicht intensiver diskutiert wird. Wenn es die Lösung wäre mehrere Chiplets/GPUs pro PCB etc. zu fertigen und somit mehr Leistung herauszuholen, hätten GPU Hersteller das auch die letzten 20 Jahre schon machen können.

Letztendlich kann so etwas nur aufgehen, wenn der Prozess besonders schlecht ist, es sich lohnt kleinere Chips aber dafür mehrere zu fertigen und die Technik hervorragend ohne Verwaltungsaufwand sowie mit oder ohne µruckler skaliert. Total spannend und oder total langweilig gleichzeitig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Jan
Katzerino88 schrieb:
AMD hat mal in einem Podcast als es um Dual GPU ging einen entsprechenden Ansatz mit zwei Chips und einem I/O Chip diskutiert und die Probleme hinsichtlich des "Framepacings" benannt, welches so ein spekulativer I/O Chip übernimmt.

Das wurde schon ein paar Male auf der Hot Chips diskutiert und läuft am Ende auf zwei Lösungsansätze hinaus. Entweder nutzt man Muller c Elemente um delay zu kompensieren oder man teilt einzelne Aufgabenblöcke per Treiber auf DIEs auf. Bei beidem verliert man wohl Leistung im einstelligen Prozentbereich, wobei man bei ersterem auf die Erfahrungen aus der side channel resistenten Logik zurückgreifen könnte.

Wir hatten zu einem ähnlichen Thema mal eine Fortbildung. Im neuromorphic computing Bereich gab es ähnliche Probleme.
 
Zurück
Oben