News Radeon-Gerüchte: So könnten die Navi-5-Chips mit UDNA aussehen

ruthi91 schrieb:
Im Sinne aller kann man nur hoffen, dass Nvidia nicht wieder so einen Fehltritt hinlegt
Der "Fehltritt" beschert Nvidia gerade einen gaming Quartalsrekord...
 
  • Gefällt mir
Reaktionen: MalWiederIch, Quidproquo77, Sinatra81 und eine weitere Person
Cr4y schrieb:
Kommt die Limitierung durch die Hardware oder die Spiele?
Weiß wohl nur Nvidia, es gibt aber Games wo eine 4090 knapp 50% vor der 4080 liegt bei 60% mehr shader, ist schon ziemlich gut.
 
Es darf auch ruhig mal wieder aktuelle Karten mit aktuellen Codecs, low profile und <75W für zweistellige Euro Preise geben. :)
 
TheInvisible schrieb:
Der "Fehltritt" beschert Nvidia gerade einen gaming Quartalsrekord
Es geht ja nur darum, dass der "Generationensprung" so klein war, und das einem recht langen Zeitraum zwischen den Generationen. Der Teil ist schon enttäuschend. An sich sind die Produkte aber gut.
 
  • Gefällt mir
Reaktionen: Brrr
Na mal sehen was bei raus kommt, vermutlich wird sich der Umstieg von einer XTX nicht rentieren, aber lasse mich gerne Lügen strafen.
 
Simonte schrieb:
sehe da >5 alleine auf MF
Einfach Mal dem Beisrefelex widerstehen und den Kontext verstehen auf das sich die 5 Grafikkarten beziehen.

Wer ist bereit mehr als 2000 USD Dollar für eine AMD Gaming Grafikkarte auszugeben? Ich sehe nicht dass AMD abgesehen von AI softwareseitig die den professionellen Use Cases eines GB202 nachfolgers abdecken kann.
 
  • Gefällt mir
Reaktionen: Rockstar85
DevPandi schrieb:
Aktuell einigen sich die Leaker ja auf gewisse Eckdaten und das was Kepler jetzt gebracht hat, ist schon echt sehr genau.

Auf der anderen Seite - @HOT ich hab deinen Beitrag gelesen - gibt es noch zu viele Ungereihmtheiten. Wird bei RDNA 5 / UDNA wirklich die WGP in CU umbenannt? Damit dann statt 64/128 Shader nurn 128/256? Oder bleibt es bei der WGP?

Die Info kommt ebenfalls von Kepler im Zuge der Diagramme die er gepostet hat: https://forums.anandtech.com/threads/lpddr6-q3-2025-mother-of-all-cpu-upgrades.2617537/post-41496720

"With the new gfx13 CU being equivalent to old WGP"
 
  • Gefällt mir
Reaktionen: .fF und ETI1120
DevPandi schrieb:
MLID hat für AT 0 also das 154 CU - was sogar aktuell rechnerisch sogar falsch ist - vorhergesehen und für AT 2 dann 64. Da hat sehr vieles nicht zusammen gepasst. Da ist das was Kepler hatte, schon substanzieller und wenn MLID jhetzt da mit aufspringt, zeigt das mal wieder, das er sehr kreativ im erfinden war.
Die CU Zahlen von Kepler beinhalten, dass eine RDNA5 CU die doppelte Anzahl von Shadern einer RDNA 4 haben soll. Das wird im AnandtechForum mindestens 2 Mal gesagt. MLID widersricht dem.

Mit diesem Faltor 2 ergeben AT3 und AT4 einen Sinn und entsprechen dem was MLID am letzten Donnerstag verzapft hat. Allerdings mutiert damit AT0 bei Kepler zu einem Monster. So wie bei MLID.

Bei dem Geschaffel von MILD ist wie Du zurecht anmerkst nicht nachzuvollztiehen, warum AMD plötzlich Riesen Dies baut und nur teilaktiviert vermarktet.

Die Quelle von Kepler ist wie üblich im ChipHell Forum
1756373953212.png

Ergänzung ()

DevPandi schrieb:
Aktuell einigen sich die Leaker ja auf gewisse Eckdaten und das was Kepler jetzt gebracht hat, ist schon echt sehr genau.
Weil das was Kepler verbreitet auf eine "Quelle" im Chiphell Forum zurück geht. Allerding habe ich keinen Link auf diese Quelle mitbekommen.

DevPandi schrieb:
Reicht meine Zeit aber nicht. Workshop!
Für die Zeit nach deinem Workshop:
https://www.linkedin.com/pulse/advancing-x86-together-robert-hormuth-v4ywc/
Hier lohnt sich spekulieren viel mehr weil die Quelle valide ist

wahli schrieb:
Möglicherweise kommt die nächste AMD-Generation gar nicht als kaufbare Gamer-Grafikkarte raus:
Unwahrscheinlich
wahli schrieb:
AT0: nur für Rechenzentren
Für die Rechenzentren hat AMD eigene Hardware.
pipip schrieb:
Es gibt keine Infos zu den CUs selber. Haben diese weiterhin 64 Shaders? Die Steuerelemente verdoppeln sich, kann also gut sein dass die IPC auch wesentlich steigt. Interessant ist auch dass L2 Cache steht (könnte am Ende aber eh auch der L3 Cache sein) usw.
Doch die gibt es im AnanfTechForum
Als einzig bitte beachten vorwärts und rückwärts
https://forums.anandtech.com/threads/rdna-5-udna-cdna-next-speculation.2624468/post-41498140
Ergänzung ()

stefan92x schrieb:
So wie das klingt, sind AT3 und AT4 ja gar nicht als eigenständige GPU gedacht, sondern nur als Chiplet für APUs.
Stimmt, darauf läuft es hinaus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Viper816
Wenn es so käme auf Basis dieser Gerüchte, dann dürfte das für jede Menge lange Gesichter sorgen, denn die wenigsten werden sich eine sehr teure (abgespeckte) AT 0 Prosumer/Ultra-High-End Karten zum Gaming von AMD für einen entsprechend hohen Preis anschaffen wollen.

Ohne AT 1 Karten würde es bei UDNA1(/RDNA5) maximal auf eine Abdeckung wie bei RDNA1 hinauslaufen, eher weniger, denn mit 40 CUs der AT 2 Karten bekommt man nicht einmal untere Oberklasse mehr hin wie eine RX 9070XT aktuell (und eine RX 5700XT damals zum Marktstart).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nighteye
Chismon schrieb:
Ohne AT 1 Karten würde es bei UDNA1(/RDNA5) maximal auf eine Abdeckung wie bei RDNA1 hinauslaufen, eher weniger, denn mit 40 CUs der AT 2 Karten bekommt man nicht einmal untere Oberklasse mehr hin wie eine RX 9070XT aktuell (und eine RX 5700XT damals zum Marktstart).
Wenn Nvidia und AMD sich noch fein absprechen, können sie die Preise der Mittelklasse Karten dann noch schön oben halten. Dann wirds RTX 6070ti nur für 1200€ geben, und RTX 6060ti und RX10060XT (40 CU) für 700€. Win Win für Nvidia und AMD. Lose für den Preisleistungs Gamer.

Aber das ist nur eine Verschwörungstherorie, an die ich auch nicht glauben will.

Ich hoffe AMD wird die RX10060XT (40 CU,s) Aggressiv für 400€ vermarkten, um Nvidia Preisdruck zu machen.
Auch weil Intels neue Arc wohl auch in der Leistungsklasse mitspielen wird.
 
  • Gefällt mir
Reaktionen: Chismon
Die ganze Idee mit AT2 bis AT4 und dem quasi "Grundchip" für das Notebooksegment macht insofern Sinn, dass man dadurch mit drei Varianten, dem "Grundchip", plus ggf. noch einem Die mit weitere Kerne den man auch im Desktopsegment verwenden kann, eigentlich alle Möglichkeiten abgedeckt hat die man selbst soweit bisher anbieten will. Vom Arbeitstier mit merh Kernen, zum Mittelweg mit AT3 kombiniert, zum Halo-Nachfolger mit AT2 und auch ein flexibler ein Baukasten für die Konsolen / Handhelds ist gegeben.
Eigenständig reicht der AT2 im Prinzip ja auch für die Mittelklasse, je nachdem also x60 XT, AT3 kommt vielleicht als x50/x40 und der AT4 dient nur den Notebooks oder Desktop-"G"-Varianten, wenn die nicht wiederum eh durch einen anderen I/O-Die die entsprechende Grafiklösung bereits integriert haben. Das Portfolio ist also straff organisiert statt der ganzen Ausführungen bisher. AT0 macht den "dGPU-Rest" darüber.

Mit den ganzen sonstigen Gerüchten zu LP-Cores im I/O-Die, verschiedene I/O-Dies ind unterschiedlichen Fertigungen, eine Mindestgrafikausgabe die da auch noch irgendwo rein muss wenn gar nichts mit angebaut ist und dann natürlich noch den ganzen Verbindungsfragen zwischen den ganzen Chips ist ja noch genug Weg und Spekulationen zu gehen bis zum finalen Produktlaunch. Aber schön, dass sich was tut und es wäre auf jeden Fall mal Zeit, wenn AMD schafft das Chip-Wirr-Warr etwas zu entflechten, dass somit dann auch die Verfügbarkeit neuer Produkte irgendwann besser wird in manchen Segmenten.
 
stefan92x schrieb:
So wie das klingt, sind AT3 und AT4 ja gar nicht als eigenständige GPU gedacht, sondern nur als Chiplet für APUs.
MLID und Kepler erzählen zwar dass AT3 und AT4 auch als dGPU kommen sollen. aber wie weit könnten sie sich tatsächlich von den APUS absetzen. Beim gleichen Speicherinterface nur mit mehr Power.

Außerdem wäre AT4 auch bei doppelter Performance je CU zu klein.

Das ganze ergibt als IODs für APUs erheblich mehr Sinn
Nighteye schrieb:
Wenn Nvidia und AMD sich noch fein absprechen, können sie die Preise der Mittelklasse Karten dann noch schön oben halten.
Warum sollte sich AMD mit 10% Marktanteil zufrieden geben
Nighteye schrieb:
Aber das ist nur eine Verschwörungstherorie, an die ich auch nicht glauben will.
Warum erzähltst Du sie dann?
Nighteye schrieb:
Ich hoffe AMD wird die RX10060XT (40 CU,s) Aggressiv für 400€ vermarkten, um Nvidia Preisdruck zu machen.
AMD kann Nvidia keinen Preisdruck machen. Und hat dies auch gar nicht vor. AMD will GPUs verkaufen und das geht nur wenn AMD Nvidia unterbietet.

Ein Preisdruck würde nur entstehen wenn AMD tatsächlich Marktanteil gewonnen würde.
Nighteye schrieb:
Auch weil Intels neue Arc wohl auch in der Leistungsklasse mitspielen wird.
Es spielt keine Rolle wer alles GPUs anbietet. Die Masse der Gamer kauft nur bei Nvidia.
 
  • Gefällt mir
Reaktionen: Stramma, Quidproquo77, stefan92x und eine weitere Person
ETI1120 schrieb:
Mit diesem Faltor 2 ergeben AT3 und AT4 einen Sinn und entsprechen dem was MLID am letzten Donnerstag verzapft hat. Allerdings mutiert damit AT0 bei Kepler zu einem Monster. So wie bei MLID.
So ergibt auch das 512bit Interface für 96 CUs einen richtigen Sinn. So "muss" es sein.
Die Treiberarbeit dürfte aber ein echter Drahtseilakt und Überstundenvertrag fürs Treiberteam werden und der Stromverbrauch evtl. explodieren. 600W fürs Topmodell incoming.
 
Zuletzt bearbeitet:
@Quidproquo77 Keine Frage das Interface ergibt Sinn. Aber ergibt eine so Fette GPU für AMD Sinn? Wie will AMD so was verkaufen?

Als Server GPU ergibt GDDR7 keinen Sinn. Als Gaming GPU viel zu groß und den Zugang zu den Professionellen Märkte hat AMD noch nicht.
 
  • Gefällt mir
Reaktionen: Quidproquo77
ETI1120 schrieb:
Allerding habe ich keinen Link auf diese Quelle mitbekomme
Ich habe das alles auch gesucht.
ETI1120 schrieb:
Mit diesem Faltor 2 ergeben AT3 und AT4 einen Sinn und entsprechen dem was MLID am letzten Donnerstag verzapft hat. Allerdings mutiert damit AT0 bei Kepler zu einem Monster. So wie bei MLID.
Das stimmt. Es ist alt aktuell noch ungenau alles.
 
Zuletzt bearbeitet:
ETI1120 schrieb:
Keine Frage das Interface ergibt Sinn. Aber ergibt eine so Fette GPU für AMD Sinn? Wie will AMD so was verkaufen?
Die Softwareseite muss langfristig genauso glänzen wie die HW Seite.
Die ROCm plattform muss endlich mal mit mehr Doku aufwarten, stabiler werden und im Vergleich zu CUDA aufholen. Die toolchain bzw. frameworkkompatibilität ist halt eingeschränkt. Das wird das primäre Problem beim Absatz sein, die Hardware selber wohl weniger. AMD ist eigentlich nirgends die erste Wahl.
ETI1120 schrieb:
Als Server GPU ergibt GDDR7 keinen Sinn.
Sicher, aber vielleicht gibt es für bessere Latenzen ja auch ein HBM Modell für die Instinct Serie.
Die GPU chiplets scheint man aber fürs erste aufgegeben zu haben. Wahrscheinlich werden es dann für die MI400 APU 4-8 CPU chiplets und das 96CU "10090XT" chiplet.
 
Zuletzt bearbeitet:
stefan92x schrieb:
So wie das klingt, sind AT3 und AT4 ja gar nicht als eigenständige GPU gedacht, sondern nur als Chiplet für APUs.
Aber als eigenständige Chiplets und nicht solche die Stackbar sind. Sonst müsste es ja gar keine größeren Dies mehr geben.
 
Quidproquo77 schrieb:
Die Treiberarbeit dürfte aber ein echter Drahtseilakt und Überstundenvertrag fürs Treiberteam werden und der Stromverbrauch evtl. explodieren. 600W fürs Topmodell incoming.
Es kommt an der Stelle darauf an, was AMD genau macht. Werden die WGP zu CU umbenannt oder die WGP zu CU umgebaut, die Eckdaten bleiben aber die gleichen, ist das vom Treiber her nicht so „problematisch“ für AMD.

Wichtig ist, das sie aktuell bei den Vec32-Einheiten bleiben und dort das Verhalten erhalten bleibt: Wave32 in einem Takt, Wave64 in einem Takt bei Nutzung der „ganzen“ Vec32 ohne X ubd Y Instruktion oder Wave64 bei einem Takt, wenn die obere Flanke leer ist, ansonsten zwei Takte.

Wir werden jetzt allerdings abwarten müssen, was kommt.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Araska
Zurück
Oben