News Radeon-Gerüchte: So könnten die Navi-5-Chips mit UDNA aussehen

Ausgehend von 96 CUs beim Flaggschiff (AT0) wären das 12.288 ALUs, während die RX 7900 XTX mit 96 CUs nur auf die Hälfte von 6.144 ALUs kommt.

Und ausgehend von den 64 bei 9070XT heisst dies wohl selbst bei nicht linearer Skalierung, das nvidia im Ars** ist.

Zumindest wenn sie weiterhin so geizen, wie bei der 5000er Serie. Da wird nvidia wohl gezwungen sein mehr für den Gamer zu bieten.
 
CDLABSRadonP... schrieb:
Naja, langsam wäre es natürlich auch mal Zeit für doppelte 5090 Performance für 1000€ bei ~250W. Nicht vergessen, uns wurden mit Ampere und Blackwell jetzt bereits zwei normale Generationsfortschritte ersatzlos geklaut. Selbst die gute Ada hat schließlich gegenüber Turing bloß das geliefert, was bereits Ampere hätte bringen sollen.
Was ist denn für dich ein normaler Generationsfortschritt?

Ampere hat doch gut zugelegt ggü Turing, die 3080 war 60% schneller als die 2080,
und Ada war dann nochmal etwas stärker ggü Ampere.
Ada legte ggü Turing (4080 vs 2080) 150% zu
 
  • Gefällt mir
Reaktionen: Pro_Bro und MalWiederIch
Taxxor schrieb:
Was ist denn für dich ein normaler Generationsfortschritt?
Ich sehe als Fortschritt nur Leistung pro Watt an.
Was das angeht, war RTX 3000 wirklich kein großer Wurf.
1756670648975.png

Zum vergleich RDNA 2 FPS pro Watt damals.
1756670702069.png

War die einzige Gen wo Radeon mal Effizienter war seit Ewigkeiten, was für eine Schwache Nvidia Gen spricht.
 
  • Gefällt mir
Reaktionen: CDLABSRadonP...
Viper816 schrieb:
....das nvidia im Ars** ist.....

Ich glaube das kannst du vergessen, soviel wird AMD da nicht aufholen, das ist wohl der Wunsch Vater des Gedanken, auch wenn du mich gerne Lügen stafen darfst, falls es anders kommt.

Gegen ein Monster mit richtig Power das vielleicht an eine 5080 ranreichen könnte hätte ich nichts aber da sollte man ganz vorsichtig sein, und muss wirklich abwarten.
 
  • Gefällt mir
Reaktionen: Kazuja
Nighteye schrieb:
Ich sehe als Fortschritt nur Leistung pro Watt an.
Was das angeht, war RTX 3000 wirklich kein großer Wurf.
Anhang anzeigen 1652771
Je nachdem was man so vergleicht
IMG_4162.jpeg


6800XT und 3080 hatten auch ca die gleiche Effizienz, die 3080 hatte 20W mehr verbraucht, war vor allem zum Start aber auch etwas schneller
IMG_4163.jpeg
 
  • Gefällt mir
Reaktionen: MalWiederIch, DaHell63 und Quidproquo77
Mich wundern die 12 CU's. Ist das für eine iGPU? Oder wird es wirklich eine Grafikkarte geben, die so klein sein wird. Die sollte ja in etwa so schnell wie ne 1650 Super sein und wahrscheinlich 20-40W brauchen.
Würde mMn. kaum Sinn machen.
Selbst bei Office PCs nimmt man CPUs mit Grafikeinheit. z.B. ein 8500G.

Sogar die 24 CUs sind recht klein, da ja sogar eine 7600 mehr hat.
Könnte eventuell was in der 200€ unter 80W Klasse sein.

Abwarten und Tee trinken.
 
crustenscharbap schrieb:
Mich wundern die 12 CU's. Ist das für eine iGPU? Oder wird es wirklich eine Grafikkarte geben, die so klein sein wird.
Na wenn es stimmt dass man die FP32 ALUs verdoppelt, dann sind das eben so viele wie bei aktuellen 24CU Karten.
Und die 24CU Karte hätte dann schon mehr als ne 9060XT
 
crustenscharbap schrieb:
Mich wundern die 12 CU's. Ist das für eine iGPU? Oder wird es wirklich eine Grafikkarte geben, die so klein sein wird. Die sollte ja in etwa so schnell wie ne 1650 Super sein und wahrscheinlich 20-40W brauchen.
Würde mMn. kaum Sinn machen.
Selbst bei Office PCs nimmt man CPUs mit Grafikeinheit. z.B. ein 8500G.

Sogar die 24 CUs sind recht klein, da ja sogar eine 7600 mehr hat.
Könnte eventuell was in der 200€ unter 80W Klasse sein.

Abwarten und Tee trinken.
Irgendwo hieß es auch was von Laptop-/Handheld-GPUs.
 
Taxxor schrieb:
6800XT und 3080 hatten auch ca die gleiche Effizienz, die 3080 hatte 20W mehr verbraucht, war vor allem zum Start aber auch etwas schneller
Ja. Aber auch nur zum Start :D
 

Anhänge

  • Indiana Jones RTX 3080 10GB.jpg
    Indiana Jones RTX 3080 10GB.jpg
    43,2 KB · Aufrufe: 164
@Nighteye Natürlich kommt jetzt wieder das eine Spiel, bei dem man einfach den vram Bedarf ohne Qualitätsverlust halbieren kann um zu suggerieren dass die 10GB heute nicht mehr ausreichen ^^

Aus dem Ranking im 5090 Test
IMG_4164.jpeg
 
  • Gefällt mir
Reaktionen: MalWiederIch
Taxxor schrieb:
Na wenn es stimmt dass man die FP32 ALUs verdoppelt, dann sind das eben so viele wie bei aktuellen 24CU Karten.
Und die 24CU Karte hätte dann schon mehr als ne 9060XT
Nur mal so Theoretisch. Was denkst du wie viel Mehrleistung hätte eine zb RX9070XT mit verdoppelten FP32 ALUs gehabt, und wie viel Mehrverbrauch ?
Taxxor schrieb:
Natürlich kommt jetzt wieder das eine Spiel^^
😅
 
DevPandi schrieb:
Artikel-Update: Die Gerüchte gehen weiter. Ein ebenso für authentische Leaks bekannter User im Chiphell-Forum behauptet, dass die nächste Radeon-Generation mit UDNA über 128 Stream-Prozessoren (FP32-ALUs) pro Compute Unit (CU) verfügt.
Er hat bei der 9070XT Performance ein bisschen übertrieben, aber ansonsten sind viele Post richtig.
DevPandi schrieb:
Das wären doppelt so viel wie bei den Vorgängern. Ausgehend von 96 CUs beim Flaggschiff (AT0) wären das 12.288 ALUs, während die RX 7900 XTX mit 96 CUs nur auf die Hälfte von 6.144 ALUs kommt.

Analog dazu würden AT2 auf 5.120 ALUs, AT3 auf 3.072 ALUs und AT4 auf 1.536 ALUs kommen. Auch diese Informationen sind allerdings noch nicht bestätigt.
Und damit sind wir wieder bei RDNA 3.

Auch da hieß es dass die Anzahl der Shader verdoppelt wurde. Am Ende war es Dual Issue, das allerdings ziemlich eingeschänkt bei Games hilft.

Bevor nichts zu die Größe durchsickert würde ich erst Mal alle Rechenspiele zur Performance bleiben lassen.

Das Problem ist, ohne den Faktor 2 geben AT3 und AT4 keinen Sinn. Mit dem Faktor 2 wird AT0 ein Monster.

Es gibt einen interessanten Twist von Singapur Demon King, der behauptet auf ChipHell dass AT0 aus zwei Chiplets besteht. Im weiteren hat Singapur Demon King mit viel Phantasie das AMD Line Up mit RDNA5 und Zen 6 skizziert.

Elandion schrieb:
Das hatte kepler schon letzte Woche.
(Hervorhebung von mir)

Kepler behauptet viel wenn der Tag lang ist. Wie war das mit der Performance von Zen 6?

Es gibt AFAIU doch Mal wieder ein bisschen Knatsch zwischen Kepler und MLID, und Kepler hat sich bei Anadtech darauf berufen, dass zhangzhonghao seine Meinung teilt.
 
Nighteye schrieb:
Nur mal so Theoretisch. Was denkst du wie viel Mehrleistung hätte eine zb RX9070XT mit verdoppelten FP32 ALUs gehabt, und wie viel Mehrverbrauch ?
Schwer zu sagen, die ALUs müssen auch ausgelastet werden, es wird schon einen Grund geben warum RDNA4 das nicht hatte.
Ich würde aber von nicht mehr als 50% ausgehen bei ebenfalls ~50% Mehrverbrauch
 
  • Gefällt mir
Reaktionen: Nighteye
Wenn man MLID und Kepler vergleicht ergibt es bei den CU den Faktor 2 bei AT3 und AT4, aber die Shaderzahlen stimmen überein.

crustenscharbap schrieb:
Mich wundern die 12 CU's. Ist das für eine iGPU? Oder wird es wirklich eine Grafikkarte geben, die so klein sein wird. Die sollte ja in etwa so schnell wie ne 1650 Super sein und wahrscheinlich 20-40W brauchen.
Wenn man den Faktor 2 ansetzen kann, wäre es ein ordentliches Update zu Strix Point.
Ohne den Faktor 2 ist ein Schritt zurück. Das hatten wir allerdings schon Mal, und alle waren glücklich.

Das Speicherinterface ist LPDDR5x/LPDDR6, was es ermöglich sehr viel mehr Speicher dranzupacken als mit GDDR7.

crustenscharbap schrieb:
Würde mMn. kaum Sinn machen.
Selbst bei Office PCs nimmt man CPUs mit Grafikeinheit. z.B. ein 8500G.
Die Erklärung ist AI. Aber eine AI Workstation macht man mit dem großen Die.
crustenscharbap schrieb:
Sogar die 24 CUs sind recht klein, da ja sogar eine 7600 mehr hat.
Das Problem ist viel mehr, wie will sich eine dGPU absetzen, wenn sie auch dasselbe Speicherinterface wie die iGPU hat.
 
ETI1120 schrieb:
Das Problem ist viel mehr, wie will sich eine dGPU absetzen, wenn sie auch dasselbe Speicherinterface wie die iGPU hat.
Muss sie das überhaupt? dGPU zum Aufrüsten für alte PCs verkaufen, APU für Neukäufe und gut ist.
 
maximus_hertus schrieb:
Irgendwie macht das alles wenig Sinn.

96 und z.B. 88/80 CUs für die Salvage Variante.

Danach direkt runter auf 40 CUs?

Und dann noch extra Dies mit 24 und 12 CUs? In Zeiten mächtiger APUs?

Alles doppelt, also 192, 80, 48, 24. Das würde Sinn ergeben.

Mit 24 wird abgerundet, die 48er Karten kratzen an der 9070, die 80er kratzt an der 5080 und der 192er ist ein Angriff auf die Spitze.


Aktuell sind meiner Meinung nach die Gerüchte zu RDNA5 noch nicht konsistent genug bzw. zu „unsicher“.

Krik schrieb:
@MrZweistein
Also wenn ich mir das anschaue, dann hätte ich beim AT1 eher auf 72 CUs getippt. 64 CUs würde bedeuten, dass da 5,33 Shader Engines drin wären. Komische Zahl.

ChipShader EnginesCUs
AT0896
(AT1)(6)(72)
AT24, eigentlich 3,3340 statt 48
AT3224
AT4112
Ich glaube, beim AT2 hat man einen Fehler bei der Präsentation gemacht.


Ob da mal was in der Hinsicht gedacht wurde? Keine Ahnung. Vielleicht hat man sich auch gesagt, dass kein Markt für einen AT1 da ist. Die Leute kaufen entweder richtig teures Highend (AT0) oder sind mit deutlich billigeren Chips (AT2 usw.) zufrieden.

Fraggil schrieb:
Wieso gibt es kein AT1 mit 64 CU?
Wenn sie gegen eine 6090 Paroli beten wollen müssen sie schon ein 128 CU rausbringen. Mit 96 CU können sie doch wieder nur gegen ein 80er Modell antreten. Außer sie wollen nicht mehr.

So ein zusammengeklatschter 128 CU RDNA4 Chip wäre auch geil gewesen.


Nur mal kurz so angemerkt:
Es sind gerüchte im umlauf das die Nächste Xbox ein WindowsPC wird und so eine art Hybrid ist ala SteamDeck.
Diese Konsole soll 68CUs UDNA haben mir 3+8 Zen6C+6c haben
 
t3chn0 schrieb:
Ich würde mir sowas sehr wünschen. Die RDNA4 Karten sind super geworden. Auf dieser Basis könnte man mit FSR4.1 in Kombination so richtig hart an Nvidia knabbern.

Von Low End bis Enthusiast Grade Karten, wäre mega.

RDNA4 ist wirklich nicht schlecht auch auch RDNA3 war schon nicht schlecht. Aber von "super" sehe ich AMD noch weit entfernt.

Die RX 9060 XT entspricht leistungsmässig so etwa der RTX 5060 Ti sowohl bei den 8GB als auch den 16GB Versionen.

AMD ist zwar ein bisschen günstiger, aber nicht viel günstiger. Dafür sind die Nvidia Karten aber kompakter und haben mehr Raytracing-Leistung.

Die RX 9070 und RX 9070 XT spricht natürlich die Fraktion die unbedingt 16GB will an, weil die RX 9070 ab ca. 599€ doch ein ganzes Stückchen günstiger ist als die RTX 5070 Ti ab ca. 789€. Aber wenn man auch mit 12GB leben kann, dann gibt es bei Nvidia die RTX 5070 scho ab ca. 539€.
 
CDLABSRadonP... schrieb:
Naja, langsam wäre es natürlich auch mal Zeit für doppelte 5090 Performance für 1000€ bei ~250W. Nicht vergessen, uns wurden mit Ampere und Blackwell jetzt bereits zwei normale Generationsfortschritte ersatzlos geklaut.
Gehe mit dem zweiten Teil Deines Beitraga d'accord, aber das Flaggschiff - so denn diese Gerüchte zutreffen sollten - richtet sich wie bei nVidia analog bei UDNA1/RDNA5 wohl primär an semi-professionelle Käufer (Prosumer).

Ein lächerliches 512bit Speicherinterface bringt zum Gaming so gut wie gar nichts (nur deutlich mehr Verbrauch) in Zeiten von GDDR7 (der auch mehr Bandbreite mit bringt), was die RTX 5090M gegenüber der Standardversion veranschaulicht und von idiotischen Verbrauch einer RTX 5090 (nicht stabil unter 400W) ganz zu schweigen.

Per Gerüchten liefe es also mit AT 0 auf AMD KI Halokarten Pendants (maßgeblich für KI Anwendungen mit hohen Verbrauch) hinaus und die klassischen 256Bit (AT 1?) Oberklasse Gaming Karten (ebenso wie bei Gaming Ultra-Enthusiast Klasse dGPUs mit 384Bit Interfaces auf Basis eines abgespeckten AT 0 Chips) sind bei diesen Gerüchten bisher leider eine Luftnummer.

Gerade den Verbrauch sehe ich da auch skeptisch, denn der steigt leider auch immer mehr und macht Gaming in den jeweiligen Leistungsklassen trotz Leistungszuwachs nicht angenehmer (was ansteigende Stromkosten und vor allem Abwärme angeht) und 128 bis 160Bit Grafikkarten sind für 4K/UHD Gaming leider keine passende Option, da zu bandbreitenschwach, selbst 192Bit können da schon limitieren.

Von der Ausrichtung her wird AT 0 wohl mehr UDNA1 (KI) und ab AT 2 wird wohl mehr RDNA5 (Gaming) betont, so wie es scheint, ähnlich, wie aktuell bei nVidias RTX 5000er Generation.

Ein (richtiger) MCM-Design-Anlauf kommt wohl erst mit UDNA2 und UDNA1 wird wohl so eine Art Kompromiss/Zwischenschritt werden, wäre meine Einschätzung (natürlich kann ich damit auch komplett daneben liegen), aber warten wir 'mal ab, was dann wirklich erscheinen wird voraussichtlich frühestens zum Ende nächsten Jahres hin.

Die erste UDNA dGPU-Generation werde ich vermutlich noch auslassen (wollen), da damit flüssiges/60fps PathTracing in 4K/UHD bei akzeptablem Verbrauch und Preis weiterhin illusorisch bleiben dürfte.

All zu viel würde ich bei den aktuellen Chipfertigungsfortschritten und der dortigen Markt- und Preisentwicklung für die kommenden Gaming Grafikkarten-Generationen von nVidia und AMD auch nicht erwarten.
 
Zuletzt bearbeitet:
Nighteye schrieb:
Also wozu dieser Schritt ? Ich vermute das dient eher Ai weil es halt ein Hybrid GPU Chip sein soll.

Nighteye schrieb:
Da werden Recheneinheiten verdoppelt, die man theoretisch schon bei RDNA 2-4 verdoppeln hätte können.
AMD ging bei RDNA diesen Schritt mit einer „X“ und „Y“-Flanke bei der Vec32-ALU.

Entweder ein Wave32 pro Takt, zwei „kombinierte“ Wave32 pro Takt - X/Y-OP. Oder bestimmte Wave64 pro Takt.
drago-museweni schrieb:
Gegen ein Monster mit richtig Power das vielleicht an eine 5080 ranreichen könnte hätte ich nichts aber da sollte man ganz vorsichtig sein, und muss wirklich abwarten.
An die 5080 bei immer „neueren“ Spielen kommt die RX 9070 XT schon ran.

Die Leistung zwischen 5080 und 5090 für die nächste Generation halte ich für möglich. Eine RTX 5090 Killer für 1000 $ werden wir pessimistisch gesehen weder von AMD noch NVIDIA sehen.

Bei dem was aktuell so gemunkelt wird, auch bei den Kosten für die Fertigung und dem Zwang die gute Zahleb für NVIDIA zu halten: die Dies werden deutlich teuerer obwohl sie sogar kleiner werden könnten.
 
  • Gefällt mir
Reaktionen: ReVan1199, Nighteye und SweetOhm
Zurück
Oben