News Radeon-Gerüchte: So könnten die Navi-5-Chips mit UDNA aussehen

TheInvisible schrieb:
Naja das bringt real so 10-15% im BestCase
Naja, wenn die GPU nicht so viel Rohleistung hat, sprich die shader Divergenz eher zum Flaschenhals wird und ordentlich Upscaling genutzt wird, könnte es durchaus noch bisschen mehr bringen. Aber muss man sehen.
Je komplexer die Szene ist, je mehr sollte es bringen.


Wird interessant werden ob AMD den Gap dann vollends schließen kann.
 
  • Gefällt mir
Reaktionen: Sun_set_1
blackiwid schrieb:
die 92% sind extrem veraltete Zahlen... und könntest bitte nicht sowas abkürzen... viel zu umständlich jetzt danach zu suchen. Letztes jahr hatte Nvidia 92% wobei das nie reine Spielerstatistiken waren... und meistens sind dort dann eben logischerweise IGP raus gerechnet. Steam beinhaltet aber auch IPG zahlen, also sind die schon daher nicht vergleichbar.
Was redest für einen Unsinn, das waren die Zahlen vom letzten Quartal: https://wccftech.com/nvidia-dominates-aib-gpu-market-share-in-q1-2025-amd-intel-drop/

Und klar sind das nur dedizierte Karten, bei Steam hast beides drinnen und trotzdem ist nvidia bei 75%
Ergänzung ()

Quidproquo77 schrieb:
Naja, wenn die GPU nicht so viel Rohleistung hat, sprich die shader Divergenz eher zum Flaschenhals wird und ordentlich Upscaling genutzt wird, könnte es durchaus noch bisschen mehr bringen. Aber muss man sehen.
Je komplexer die Szene ist, je mehr sollte es bringen.


Wird interessant werden ob AMD den Gap dann vollends schließen kann.
AMD hat nicht mal Hardware Support für SER und OMM, Nvidia schon, da wird der Gewinn sicher nicht größer sein.
Ergänzung ()

Sun_set_1 schrieb:
Ne das war schon mehr. Bei meiner 4090 waren das seinerzeit gut 25-30%.
Ja weil NV Hardware dedizierte Hardware dafür hat, bei RDNA4 läuft SER und OMM über Treiber-Level
 
Zuletzt bearbeitet:
Wenn die 10090 XTX 30-40% schneller wird als die 6090, dann Deal. Ansonsten kann sich AMD Highend sparen, wenn nicht konkurrenzfähig.
 
  • Gefällt mir
Reaktionen: iron_monkey
Nighteye schrieb:
Erklärt das auch diesen höheren Driveroverhead bei Nvidias High End Karten ?
Die Thematik ist an der Stelle etwas komplizierter und es sind da auch zwei verschiedene Paarschuhe. Um die Problematik von GCN als auch jetzt bei der RTX 4090 und RTX 5090 zu verstehen, müsste man etwas tiefer in die Materie einsteigen.
Nighteye schrieb:
Also quasi CCN in Neu.
Nein, ich kann das an der Stelle nur sehr stark "vereinfacht" machen - es ist nur das Prinzip im Groben:

Jeder Pixel eines Bildes ist ein Thread auf der GPU. Diese Pixel/Threads kannst du anhand bestimmter Informationen zusammen fassen, zum Beispiel anhand des Shaders (Programm), so werden die Threads gruppiert und diese Gruppen werden auf der GPU ausgeführt. Nvidia mag Gruppen von 32, AMD jetzt auch, davor waren es Gruppen von 64.

Um die GPU also perfekt auszulasten, müssen genug solcher Gruppen zusammen kommen. Du brauchst also bei einer RTX 4090/RTX 5090 bei 128/170 SM pro SM 4 dieser Gruppen, damit die Karte "perfekt" ausgelastet wird.

Das ist etwas anderes als ein Treiber-Overhead. Und noch mal: Das ist jetzt massiv vereinfacht und soll nur das Grundproblem veranschaulichen!
Nighteye schrieb:
Glaubst du der Rhythmus bleibt dann auch für die Zukunft ?
Also Quasi, RDNA 6 / UDNA 2 ab Sommer 2028 ?
Ehrlich: Keine Ahnung. Kann sein, muss nicht sein.
blackiwid schrieb:
Du unterstellst hier also gezielter Betrug,
Nein, ich unterstelle keinen gezielten Betrug, es ist allerdings interessant, was manche Menschen hinein interpretieren.
blackiwid schrieb:
ohne Beweise sagst du damit das es die Leute die ihm diese Informationen geleakt haben nicht gibt
Auch das habe ich nicht geschrieben. Die Frage ist nur, welche Informationen haben MILD, Kepler und Co aus ihrer Quelle bekommen und was ist Interpretation von Ihnen und welchen Wissenstand wird darauf angewendet und wird auch was falsch interpretiert.

Das ist genauso, wie ich jetzt Leistungseinschätzungen für eine fiktive 10080XT vornehme und überlege wo sie landen könnte. Das passiert Anhand der Informationen, die bekannt sind und das was man noch dazu interpretieren muss.

Und hier kommt jetzt noch dazu, dass jetzt sogar jemand drittes - hab ich das jetzt richtig mit bekommen - versucht die Leaks von Kepler und MLID in Einklang zu bringen und warum die beiden doch irgendwie stimmen und beide Recht haben.

Ob das jetzt alles stimmt, werden wir eh erst wissen wenn es kommt. Rein fiktiv
DaHell63 schrieb:
An der Stelle wollte ich die RX 9070XT nicht schlecht reden. Aber eine RTX 5080 zum halben Preis gibt es eben nicht...wie von manchen probangiert.
Da helfen Cherrys auch nicht weiter und wird dadurch wahrer.
Ansonsten muss man auch das RTX 5060Ti Beispiel zählen lassen.
Ich hab dir doch gar nicht unterstellt, dass du die RX 9070 XT damit schlecht redet. Nur angemeckert, dass es für die RX 9070 XT ein Erfolg ist, dass man hier mit auf dem Level der 5060 Ti ist und dass Pathtracing in Cyberpunk 2077 auf der 9070 XT sogar "möglich" ist, im Gegensatz zur 7900 XTX davor.
DaHell63 schrieb:
Da helfen Cherrys auch nicht weiter und wird dadurch wahrer.
Im Endeffekt kommt es bei sowas am Ende auch immer auf die Spiele- und Szenenauswahl an und welches Bild man da erzeugen will.

Dazu - Achtung, rein hypothetisch - kommt es halt auch, wie sich vielleicht modernere Spiele mit der Zeit ab jetzt verhalten. Es kann sein, dass RDNA 4 die neusten UE5-Iterationen besser liegen als Blackwell und daher die RX 9070 XT in den Spielen stärker abschneidet, während man bei anderen Spielen hinten an liegt.

Wer dann immer die neusten UE5-KRacher spielt, könnte dann mit der RX 9070 XT besser bedient sein. Wer wiederum PT-Spiele spielen will, greift dann besser zur RTX 5080 zur Zeit.

Und am Ende: Für ein umfassendes Bild einer Karte, sollte man eh immer mehr als ein Benchmark betrachten.
Quidproquo77 schrieb:
Es geht vielmehr um die ständige Pauschalisierung zu Blackwell, denn rein die Fakten betrachtend müsste man RDNA4 als "Fehltritt" interpretieren, denn insgesamt ist man bei Featureset, Leistung, Effizienz ja weiterhin unterlegen, lediglich nicht mehr so viel wie damals.
Echt jetzt? Dein ganzer Beitrag und deine Aufregung funktioniert an der Stelle nur, wenn du das Wort "enttäuschend" durch "Fehltritt" ersetzt und damit eine vollkommen andere Diskussionsebene startest. Und selbst da kann man noch genug Interpretationen auf machen. Bist du es nicht, der sich oft - und teilweise auch zurecht - über fehlende Differenziertheit aufregt und eigentlich ein vollumfängliches Bild erwartet?

Über die psychologischen Hintergründe zu Markentreue und Co fange ich an der Stelle nicht an, das würde jetzt den Kontext final sprengen.
 
  • Gefällt mir
Reaktionen: SweetOhm, eXe777, Teeschlürfer und 5 andere
Ich denke, wie immer so deutlich vor dem Release neuer Hardware gilt: Wer etwas weiß, der sagt nichts und wer etwas sagt, der weiß nichts.
 
Quidproquo77 schrieb:
Wird interessant werden ob AMD den Gap dann vollends schließen kann.

Jopp und das war „nur“ SOR. RR Optimierungen kommen ja noch hinzu. Ich denke auch, dass AMD hier potenziell noch besser wird, ob sie vollends schließen können ist natürlich Wunschdenken (Konkurrenz immer gut).

Beeindruckend aber, dass wir das überhaupt wieder realistisch in Erwägung ziehen können. Hätte ich vor vier Jahren wirklich nicht gedacht.

TheInvisible schrieb:
Ja weil NV Hardware dedizierte Hardware dafür hat, bei RDNA4 läuft SER und OMM über Treiber-Level

Ja über die Tensor-Kerne und da hat AMD doch nun auch was ähnliches - oder bringe ich da was durcheinander?
 
  • Gefällt mir
Reaktionen: SweetOhm
Nighteye schrieb:
3.)
Dazu das Radeon Thema.
AMD hatte bei RDNA 3 die bessere Preis Leistung in Raster & Raytracing (Anhang)
Dennoch hatte die RTX 4090 mehr Verbreitung in Steam als alle RDNA 3 Karten zusammen.
Die RDNA 3 war daher trotz besserer P/L kein Erfolg für AMD.
Das stimmt so eben nicht.
RDNA3 war von der Hardware und von den Features beschnitten + hoher Verbrauch/Abwärme. Bei gleicher Bildqualität sind doch damals die NVIDIA Karten da schon weit davon gezogen, weil pre FSR4 nur sehr selten mal in einem Spiel überzeugen konnte. Wo man bei DLSS3 bei UHD den Performance Mode nehmen konnte war es bei FSR wenn überhaupt der Quality Mode, mit Glück war FSR3 überhaupt im Spiel. Es gab keine bessere P/L bei RDNA3, und zum selben Preis wäre es absurd gewesen AMD zu kaufen.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Pro_Bro schrieb:
Das stimmt so eben nicht.
Also Lügen die (Bilder) von PCGH welche im Kommentar den du Zitierst angehangen waren ?
Quidproquo77 schrieb:
Wie würdest du denn "Fehltritt" ansonsten interpretieren
denn rein die Fakten betrachtend müsste man RDNA4 als "Fehltritt" interpretieren, denn insgesamt ist man bei Featureset, Leistung, Effizienz ja weiterhin unterlegen
Schon lustig.
Beim RTX 5060ti Review von diesem Sommer bei PCGH wird ein ganzes Kapitel nur Problemen von Blackwell gewidmet.
1756730022482.png

Und auch in Sachen Effizienz, zeichnet PCGH ein anderes Bild als dein Kommentar.
(Quelle im Anhang)
Bei Raster Radeon wie immer sehr gut. Bei Raytracing nicht mal abgeschlagen.
Wenn das ein Fehltritt ist, wie sieht dann ein Erfolg aus ?
Muss Radeon erst (Überspitzt formuliert) 200% bessere Effizienz haben damit es mal kein Fehltritt in deinen Augen ist ?
 

Anhänge

  • 1756730107919.png
    1756730107919.png
    116,4 KB · Aufrufe: 87
  • 1756730212333.png
    1756730212333.png
    91,8 KB · Aufrufe: 88
  • Gefällt mir
Reaktionen: SweetOhm
TheInvisible schrieb:
AMD hat nicht mal Hardware Support für SER und OMM, Nvidia schon, da wird der Gewinn sicher nicht größer sein.
Es wird zumindest nirgends erwähnt, aber ist ja auch nicht notwendig für alles eine HW Beschleunigung zu haben. Microsoft macht das jedenfalls nicht zur Bedingung um SER über DXR 1.2 zu nutzen.
TheInvisible schrieb:
Ja weil NV Hardware dedizierte Hardware dafür hat, bei RDNA4 läuft SER und OMM über Treiber-Level
Die Sortierhinweise um ähnliche Threads zusammenzuführen könnten bis zu einem gewissen Grad auch effizient Änderungen per Software Direktive über HW Wafefront Scheduler funktionieren.
Bei Nvidia übernimmt das direkt die Hardware, bei AMD teils, teils. Nichts ist unmöglich.^^
 
Nighteye schrieb:
Also Lügen die (Bilder) von PCGH welche im Kommentar den du Zitierst angehangen waren ?
Ich sehe dort eine 7900xt gegen eine 4080, das sind doch garkeine Konkurrenten gewesen. Die Preise gegeneinander machen doch so dann auch keinen Sinn. Selbes bei der 5090 gegen die 7900xt/xtx.
Und ja Native Vergleiche machen keinen Sinn, bzw. Erzeugen ein falsches Bild, das ist nicht neu.
 
  • Gefällt mir
Reaktionen: MalWiederIch und ElliotAlderson
Limit schrieb:
AT0 scheint eindeutig auf KI ausgelegt zu sein.
Die AT0 ist weder MI500 noch deren Nachfolger.

Also wäre diese GPU bei CU *2 gegen die Profi-Karten von Nvidia auf Basis des GB202 Nachfolgers. Fällt mir sehr schwer daran zu glauben.
Limit schrieb:
Das würde wohl auch den großen Sprung von AT0 zum nächstkleineren Chip erklären, denn die großen Varianten dürften für KI vorbehalten bleiben. Für Gaming gibt es dann Varianten mit 64-84 CUs mit 256-384Bit SI.
DAs ändert aber nichts an den Kosten des Dies. Nvidia kann sich das leisten weil sie viele GB202 in den Profi-Karten absetzen können.

Bei AMD sieht das ganz anders aus.

IMO sind AT3 und AT4 so wie sie in den Gerüchten dargestellt werden IODs und keine dGPU-Lösungen. AT4 ist so oder so als dGPU zu klein. AT4 könnte IMO funktionieren. Interessant ist ob an den Spekulationen es gäbe einen Graphic Memory Die was dran ist.

Auf viel stabilerer Basis stehen die Informationen zu den Änderungen in den Caches. Hier gibt es Infos in den Sourcen. Hier soll AMD massive Änderungen vornehmen.
 
Sun_set_1 schrieb:
Ja über die Tensor-Kerne und da hat AMD doch nun auch was ähnliches - oder bringe ich da was durcheinander?
Tensor-Kerne sind für Matrizenoperationen, nicht für SER und OMM.

In wie weit RDNA4 auf Hardware-Ebene mit SER und OMM umgehen kann, ist unbekannt.

Es gibt nämlich noch keinen Treiber, der die Funktionen unterstützt. Und ohne Treiber kann die Funktion auch nicht genutzt werden.

Allgemein ist Shader Model 6.9 noch in der Entwicklung.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Sun_set_1
TheInvisible schrieb:
Q1, wann hat Nvidia ihre neue Gen released und wann AMD?
Tipp:
RTX 5090: 30. Januar
RX 9070: 6. März

Also cherrypicked Quartal... ja in einem Quartal mag das stimmen das macht es aber keine allgemeine Wahrheit.
Ja in 3 Wochen hat AMD deutlich weniger verkauft als Nvidia in 8 Wochen... wow. Zumal AMD anders wie bei RDNA2 die RDNA3 0 Rabatiert hat Wucherpreise bis heute.
 
  • Gefällt mir
Reaktionen: SweetOhm
Das ganze Techno-Blabla is doch für die Füße, solange FSR4 nicht in jedem Spiel funzt ohne wenn und aber.
Jetzt ist September und immernoch kein Vulkan Treiber in Sicht.
 
Quidproquo77 schrieb:
Naja, wenn die GPU nicht so viel Rohleistung hat, sprich die shader Divergenz eher zum Flaschenhals wird und ordentlich Upscaling genutzt wird, könnte es durchaus noch bisschen mehr bringen. Aber muss man sehen.
Je komplexer die Szene ist, je mehr sollte es bringen.


Wird interessant werden ob AMD den Gap dann vollends schließen kann.


SER bringt zusammen mit OOM verdammt viel, wenn animierte Vegetation im Bild ist. Der Showcase mit Portal ist eigentlich eher ein negativbeispiel für den Nutzen dieser Techiken.
Indy wäre ein Positivbeispiel. Das hat sehr viel animierte Vegetation und ist deshalb z.B. auf Navi 48 mit Pathtracing unspielbar, wohingegen ein Cyberpunk auf Navi 48 noch relativ gut mit pathtracing läuft.

AMD hängt hier 3-4 Jahre hinterher. Bei Nvidia gibts das seit Ada, bei AMD wirds erst mit RDAN5 so weit sein.


Fairerweise muss man natürlich sagen, dass es noch sehr wenige Pathtraced Spiele gibt, aber wenn RDNA5 das auch bietet und z.B. in den neuen Konsolen zum Einsatz kommt, werden nicht-pathtracingfähige GPUs ohne SER und OOM halt potenziell mittel bis langfristig schlechter altern. Die RX9000 Serie wird damit womöglich ähnlichen Status bekommen, wie die RX5000 Serie, die ebenfalls knapp das Featureset der neuen Konsolengeneration (welches mittelfristig die Anforderungen an den PC vorgibt) verpasst hat.
 
  • Gefällt mir
Reaktionen: Quidproquo77
mahama schrieb:
solange FSR4 nicht in jedem Spiel funzt ohne wenn und aber.
Dafür kann AMD nichts. Die Spiele Entwickler entscheiden ob sie FSR 4 Implementieren oder nicht.
Und jedes Spiel war sicher nicht ernst gemeint von dir.
Ich Spiele noch ein paar Spiele (Vier atm) die noch kein DLSS haben.
 
  • Gefällt mir
Reaktionen: SweetOhm
DevPandi schrieb:
Echt jetzt? Dein ganzer Beitrag und deine Aufregung funktioniert an der Stelle nur, wenn du das Wort "enttäuschend" durch "Fehltritt" ersetzt und damit eine vollkommen andere Diskussionsebene startest.
Dein ganzer Beitrag bezieht sich inhaltlich doch auf die Entgegnung von @TheInvisible auf den Beitrag von Ruthi und greift lediglich das Wort "enttäuschend" auf, damit nicht unmittelbar darauf geantwortet wird.

Wer hat denn sonst mit den Quartsalzahlen auf die "Enttäuschung" bzw. auf den "Fehltritt" inhaltlich so reagiert bzw. was dich dazu einlud einen Zusammenhang zwischen Absatz und gutem Produkt zu negieren, denn das Produkt wäre ja auch weiterhin gut gewesen, wenn man einfach Ada Lovelace weiterverkauft hätte.

Dein Taktieren bzw. das Anwenden von strategischem Subtext um eine direkte Aussage zu vermeiden, sprich immer gekonnt um die doch offensichtlich notwendige Gegendarstellung herumzutanzen, offenbart halt deinen persönlichen Bias alles immer besonders positiv für AMD darzustellen und besonders negativ bezüglich Nvidia, obwohl es dafür eigentlich gar keinen Grund gibt. Aber es passt gut mit dem Wechsel von einer 4090 auf eine 9070XT zusammen, vielleicht würde ich dann auch solche Hoffnungen entwickeln.^^
DevPandi schrieb:
Bist du es nicht, der sich oft - und teilweise auch zurecht - über fehlende Differenziertheit aufregt und eigentlich ein vollumfängliches Bild erwartet?
Ja, wo ist denn deine Differenziertheit? Die 9070XT in Pathtracing etwas hinter einer 5060Ti liegend wird als "Achtungserfolg" verkauft, währenddessen ein Aufholen der 9070XT auf die RTX 5080 in UE5 Titeln hypothetisch propagiert wird und nicht das wiederholte Cherrypicking sondern die Widerlegung dessen negativ mit einer erfundenen "Unterstellung" konnotiert. Der Vorsprung von Nvidia ist "zur Zeit". Man könnte das natürlich ganz anders sehen und darstellen, gewissen Hardwaresupport erwähnen und dadurch Rückschlüsse auf die Zukunft entwickeln, usw, aber nein, man entscheidet sich lieber für den AMD Fine Whine Mythos.
DevPandi schrieb:
Über die psychologischen Hintergründe zu Markentreue und Co fange ich an der Stelle nicht an, das würde jetzt den Kontext final sprengen.
Eine latente Einladung das Thema aufzumachen und ohne es aufzumachen, trotzdem seinen Punkt zu machen. Der Marktanteil wird natürlich kaum durch psychologische Konsumentenbindung erreicht, sondern durch harte Faktoren. Das ist auch ein Nebenschauplatz.
Nighteye schrieb:
Und auch in Sachen Effizienz, zeichnet PCGH ein anderes Bild als dein Kommentar.
Weil du vom Gesamtbild die Hälfte wegschneidest (Karten herausnimmst) und dann eine Gegendarstellung provozierst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch
LikeHike schrieb:
in BF6 wird die 9700XT deutlich geschlagen, in Hellblade 2 ebenfalls. Musst du dir deinen Kauf schönreden oder warum schreibst du sowas? Die 9700XT schlägt in der Regel nichtmal eine 5070 TI. Die hier zum Konkurrenten zur 5080 aufzubauen ist absurd.
Da bist du aber auf dem Holzweg ;)
https://www.computerbase.de/artikel...schnitt_benchmarks_in_wqhd_uwqhd_und_ultra_hd
Und in BF6 ist eine 5080 minimal besser, wow.
https://www.computerbase.de/artikel...schnitt_benchmarks_in_wqhd_uwqhd_und_ultra_hd

Und in letzter Zeit gab es so ein paar UE5 Titel in denen NVs 5080 gegen 9070XT gar nicht mal soo gut aussah ;)
Das einzige was deutlich ist bei der 5080, der Aufpreis von guten 400-500€. Schon ne tolle Leistung von NV gegen AMDs Mittelklasse ;)
 
  • Gefällt mir
Reaktionen: SweetOhm
@danyundsahne DLSS ist etwas rechenintesiver als XESS auf AMD und es war nur ne Beta. Da würde ich wirklich abwarten auf einen Test ohne DLSS und vom fertigen Spiel. nach Day 1 Patch.

Insofern etwas verzerrt aber ja P/L mäßig ist das gar keine Frage. Die 5080 ist in 4k RT zirka 25-30% schneller und kostet 50-60% mehr
 
danyundsahne schrieb:
Schalte mal auf UWQHD, dann werden aus +7% schon +18%, in 4K dann wieder nur +13%

Insgesamt komisches Verhalten, wenn man bedenkt, dass sich gleichzeitig die 5090(uind auch die 4090) sich jedem Schritt weiter von der 5080 absetzt.
Wobei der Sprung zu 4K mit +50% für die 5090 zu groß erscheint von vorher +34% und +37% und auch der Abstand 5080 zu 5070Ti wird von WQHD zu UWQHD erst größer, dann zu 4K wieder kleiner, also irgendwas scheint da an den 4K Zahlen der 5080 nicht zu passen.

Preislich sollte die 5080 trotzdem aktuell eher bei ~850-900€ liegen und die 5070Ti bei ~700€
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MalWiederIch und ElliotAlderson
Zurück
Oben