News GPU-Gerüchte: AMD RDNA 5 (UDNA) erscheint Mitte 2027

zeedy schrieb:
Ich ich ich, deine Anwendungs- und Bedarfsfälle sind aber scheinbar nicht allgemeingültig.
Im Gegensatz zu dir maßt er sich nicht an Nvidia Käufer als Markenfans hinzustellen, sondern aus rationalen Gründen ein Produkt zu kaufen.
danyundsahne schrieb:
Das wurde schon zigmal hier diskutiert warum das wohl so ist...
Und es ist ziemlich auffällig, dass immer die gleichen diese Entscheidung von AMD verteidigen, obwohl die Lösung fertigentwickelt in der Schublade liegt.
Pascal ist 10 Jahre alt und war bei Erscheinen von FSR2 6 Jahre alt und auch das lief noch auf Pascal.
DLSS4 läuft heute zurück bis zu Turing, FSR4 gerade mal mit der aktuellen Generation, es ist also etwas völlig anderes.
 
Zuletzt bearbeitet:
Was einige hier glauben auf Basis dieser Gerüchte für RDNA5/UDNA1, Gaming allgemein, usw. prophezeien zu können :lol: .... doch, schon spektakulär verträumt.

Dass sich der Start neuer Grafikkarten (von nVidia und AMD) auf 2027 etwas verzögern dürfte, war doch schon länger erwartbar und es kann immer noch im üblichen 2-2,5 Jahre Veröffentlichungs-Zyklus landen.

Wenn es (ohne KI Blasenplatzen) dabei bleibt, dann wird das aufgrund der Speicher(preis)krise für die meisten sowieso mäßig bis wenig attraktiv dann die Grafikkarte (schon wieder) aufzurüsten.
 
Zuletzt bearbeitet:
zeedy schrieb:
Das bezweifle ich.
Natürlich bezweifelst du es, schließlich muss man das Narrativ der "bösen Fanboys" die ihre Kaufentscheidungen angeblich so gar nicht aus rationalen Gründen treffen aufrechterhalten und damit indirekt der Moralischen Käufergemeinschaft von AMD Produkten schaden.

Die das aus selbstlosen Motiven tun. So ähnlich ist doch der Gedankengang.
zeedy schrieb:
Die Leute, die 4090 und 5090 kaufen die, weil sie schon immer Nvidia gekauft haben, da würde eine AMD Alternative nichts bewirken.
"Die Leute" die schon immer eine Intel CPU gekauft haben, haben heute eine AMD CPU in ihren Rechenknechten, weil Raptor Lake nach den X3D Produkten im Vergleich wie ein Schluckspecht gesoffen hat und genügend CPUS degradiert sind. AMD hat/hatte die klar besseren/effizienteren Produkte. Das ist bei GPUs nicht der Fall und das ist der triviale Unterschied.
zeedy schrieb:
Siehe RX 6800XT vs. RTX 3080. Eine nahezu identische Leistung, bei geringerer Leistungsaufnahme, niedeigerem Preis und deutlich besserer Speicherausstattung haben nicht dazu geführt, dass AMD auch nur ansatzweise mit den Verkaufszahlen der 3080 mithalten konnte.
Du lieferst gerade das Paradebeispiel dafür warum die Diskussionen derart ausarten, indem du wie jeder gepflegte Markenfetischist Vorteile der anderen Seite vollständig unter den Teppich kehrst.

Die 6800XT war in Raytraycingspielen chancenlos, hatte kein konkurrenzfähiges KI-Upscaling, kein Reflex und das allgemein schwächere Featureset. VRAM hin oder her kann man kaum zu dem Fazit kommen, dass das AMD Angebot in der Gesamtschau besser war. Die 3080 kann heute sogar noch DLSS4, während RDNA2 mit FSR3 oder wahlweise XeSS - wenn es integriert ist - abgespeist wird.
zeedy schrieb:
Schneller, deutlich günstiger und mindestens gleichwertig beim Feature Set. Was wirtschaftlich kaum möglich ist.
Wie war das nochmal mit 3080 vs. 6800XT?
zeedy schrieb:
Von daher finde ich es richtig, dass AMD den Enthusiastenmarkt aufgegeben hat.
Du findest es richtig, weil es bereits in der Analyse an Neutralität scheitert.
zeedy schrieb:
Ich ich ich, deine Anwendungs- und Bedarfsfälle sind aber scheinbar nicht allgemeingültig.
Aber der Fanboy-Cope ist "allgemeingültig". Es sind keine rationalen Gründe warum Nvidia so hohe Marktanteile hat, es sind einfach die Fanboys. Logisch. Alleine das zu glauben entbehrt einer schlüssigen Argumentation.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: maxrl, MalWiederIch und incurable
Nighteye schrieb:
Also FPS pro € war die RTX 4090 sehr sehr viel Schlechter.
Es gibt kaum eine günstigere Karte als die RTX 4090. Wer die vor drei Jahren zum Start gekauft hat konnte sie drei Jahre nutzten, hat Stand heute immer noch die zweitschnellste Karte der Welt, und der Wert ist obendrein gestiegen.

So billig kann eine RX 7900 XTX gar nicht sein, dass sie da im Vergleich besser abschneiden könnte.
 
incurable schrieb:
RTX 4090... immer noch die zweitschnellste Karte der Welt....

Auch wenn ich selbst eine besitze... irgendwie fehlt mir der Glaube an deine Aussage.
 
  • Gefällt mir
Reaktionen: SweetOhm
TheInvisible schrieb:
jedes UE5 Game hat quasi mit Lumen RT-Light
Das ist schon korrekt. Da zocke ich aktuell aber nur Ark Survival Ascended. Dort sieht RT aber leider schlecht aus und lässt meine FPS viel zu weit droppen.
 
  • Gefällt mir
Reaktionen: SweetOhm
incurable schrieb:
Es gibt kaum eine günstigere Karte als die RTX 4090.
So billig kann eine RX 7900 XTX gar nicht sein, dass sie da im Vergleich besser abschneiden könnte.
FPS pro Euro ist die RX7900XTX besser. Das ist ein Simpler Mathematischer Fakt.
Dein leugnen dieser Tatsache, zeugt von Wunschdenken und Irrationalität.
Die RTX 4090 Rohleistung ist super, aber FPS pro Euro ist die Karte sehr viel schlechter als das RDNA 3 Flaggschiff.
 
  • Gefällt mir
Reaktionen: GOOFY71 und SweetOhm
Nighteye schrieb:
FPS pro Euro ist die RX7900XTX besser. Das ist ein Simpler Mathematischer Fakt.
Eine Karte ist langsamer, hat weniger Grafikoptionen und seit der Vorstellung 400+ Euro an Wert verloren.
Eine Karte ist schneller, hat mehr Grafikoptionen und seit der Vorstellung an Wert gewonnen.

Welche war die bessere Option für den Kunden?
 
DevPandi schrieb:
Aber alles nur Gerüchte und Rätselraten.
Und natürlich wie immer. Die einen wollen Gerüchte unbedingt negativ meinen, die anderen unbedingt positiv.:D
 
  • Gefällt mir
Reaktionen: SweetOhm
Araska schrieb:
Auch wenn ich selbst eine besitze... irgendwie fehlt mir der Glaube an deine Aussage.
Welche Profimodelle würdest Du mitzählen wollen, um die RTX 4090 von Platz 2 zu stoßen?
 
  • Gefällt mir
Reaktionen: GOOFY71 und Pisaro
McTheRipper schrieb:
also kaufen doch eh alle Nvidia weiter egal wie der Preis aussieht, man hätte es nur gerne etwas günstiger durch AMD.
Mal wirklich wechseln will man dann aber doch nicht, da lässt man sich lieber ausnehmen.

Außer man möchte jede Generation neu kaufen.

nVidia unterstützt DLSS4 runter bis zu den 2000er Karten und game-ready-Treiber gibt es dafür auch noch.

AMD hat FSR 4 exklusiv nur für die neuesten Karten und die 6000er sind vom Treiber Support in den Ruhestand (legacy Status) geschickt worden.

Fazit:
Wer eine Grafikkarte länger behalten möchte sollte sich ein Kauf von AMD Produkten gut überlegen.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und GOOFY71
incurable schrieb:
Welche Profimodelle würdest Du mitzählen wollen, um die RTX 4090 von Platz 2 zu stoßen?
Ich hatte es glaube ich schon erwähnt aber die Karte ist an Genialität momentan nicht zu überbieten. Release war Oktober 22 und sie ist immer noch auf Platz 2 der Gaming-Rangliste mit einem ordentlichen Abstand zur 5080. Hat es so etwas überhaupt schon einmal gegeben?
Edit:
Und das bleibt 2026 durchgängig auch noch so!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und incurable
incurable schrieb:
Welche Profimodelle würdest Du mitzählen wollen, um die RTX 4090 von Platz 2 zu stoßen?
Zumindest theoretisch könnte man in den Gamingparkour noch die RTX Pro 6000 mit aufnehmen. Der8auer hat die mal getestet wenn ich mich recht entsinne. Die liegt dann für schmale 8k€ sogar knapp vor der 5090.
 
  • Gefällt mir
Reaktionen: incurable
Corpus Delicti schrieb:
Fazit:
Wer eine Grafikkarte länger behalten möchte sollte sich ein Kauf von AMD Produkten gut überlegen.
Klar, die YT Beiträge, wo man heute noch moderne Spiele mit anständig angepassten Eintellungen auf einer RX580 spielen kann, allein auf RT verzichten muß, sprechen dafür, das AMD GPUs binnen weniger Jahre nutzlos werden, oder doch nicht?

Ich will jetzt nicht auf die grüne Seite eingehn - schon diese Anti AMD Hysterie man hätte kein KI Upscaling ist völlig überzogen, weil die Unterschiede zu Non-KI-FSR geringer sind, je höher die Upscaling Auflösung wird, bis man nur noch in Pixellupen und extremer Verlangsamung überhaupt Unterschiede wahrnehmen kann.

Und je nach Geschmack bieten manche Spiele auch XESS an.

Ich spiel seit Jahren mit Upscaling auf 4k, seit ich eine RX6700XT hatte und die ganzen angeblichen Nachteile konnte ich nicht nachvollziehen, mit normalen Einstellungen und normalem Spielverhalten.

Und nein, ich nutze kein FG, weil das Grundsäzliche keine interactiven Frames sind, sondern bloß interpolierte Zwischenbilder, die nicht den Gameengine Relevanten Input wiederspiegeln, die Renderzeit der interactiven Frames spreizen und einen "Leistungsgewinn" nur vorspiegeln!

Userseitiges RT ist immer noch ein riesiger Irrweg, obwohl inzwischen 4 Generationen von RT GPUs veröffentlicht wurden, die aber immer noch einem Aufwand-Ertrag-Effekt bieten der schlimmer ist als Maos "großer Sprung vorwärts"!

Bisher ist RT das Geld nicht wert, das man dafür ausgibt und als Kunde fühle ich mich von der Industrie nicht gut bedient sondern genötigt diesen Pfad zu gehn.

Es hätte niederschwelligere Wege zur Einführung von RT gegeben, die Anbieterseitig begonnen hätten und im Verlauf der GPU Generationen hätte sich ein Anbieter-Nutzer-Handshake in der Technologie ergeben, wo man sich als Kunde mit Selbstwertgefühl geschätzt fühlt, anstelle ausgenommen und gerne wieder gekauft hätte.

Alles was die Industire mit ihrem jetzigen Weg erreicht ist, das ich mehr Kaufvorbehalte habe, anstelle weniger!

Und so wie die Situation ist, mit einer RX9070XT im Rechner, kann ich auch gut ohne GPU Upgrade bis 2030 leben, wenn es denn dazu kommt, das es keine attraktiven Angebote mehr gibt.

Zwingen kann man nich zu garnichts, ich habe Spiele mit hohem Wiederspielwert, Spiele die ich nur Minuten angespielt hab, die mich 2 oder 3 Jahre unterhalten, selbst wenn sie nur Einmaspielwert haben, Spiele die legal in meinem Besitz sind und nicht von Portalen abhängig - mich kann man nur mittels guter Angebote überzeugen und wenn man das nicht macht, dann kauf ich nicht!
 
  • Gefällt mir
Reaktionen: SweetOhm und Nighteye
Alex8 schrieb:
Ich muss ehrlich sagen, das mich AMD mit ihrer Taktik etwas ältere GPU´s nicht mehr unterstützen zu wollen bzw. neue features nicht nachzuschieben, doch hart getroffen hat. Die Karten kosten genug Geld, da quasi nach 2-3 Jahren nicht mehr supporten zu wollen, erinnert mich zu sehr an den Smartphone Markt, wo ich auch entsprechend aussortiert habe.
Das könnte man doch genauso über die damals erst 2 Jahre alten GTX1000 Karten sagen, die kein DLSS supporteten? Die wurden auch abgeschnitten vom Support neuer Technologien?!
Alex8 schrieb:
So könnte es sein das meine nächste Karte dann doch die erste Nvidia werden könnte, nachdem ich AMD 20 Jahre die Treue gehalten habe.
Dann kauf NV, hindert dich ja niemand dran.
Alex8 schrieb:
Das Image des kundenfreundlichen, preiswerten Unternehmens hat AMD meiner Meinung nach in den Sand gesetzt.
Ersetze "AMD" durch "NV". Ergibt irgendwie genauso viel Sinn ;)
Wo war NV jemals preiswert und kundenfreundlich?!
 
  • Gefällt mir
Reaktionen: SweetOhm
danyundsahne schrieb:
Das könnte man doch genauso über die damals erst 2 Jahre alten GTX1000 Karten sagen, die kein DLSS supporteten?
Und wen interessiert das heute noch? Die Karten können genauso noch FSR 3 offiziell nutzen, wie RDNA 3, werden allerdings 10 Jahre alt. Dagegen ist RDNA3 erst kürzlich 3 geworden und RDNA3.5 1 Jahr alt.
danyundsahne schrieb:
Die wurden auch abgeschnitten vom Support neuer Technologien?!
Als die Technik neu und experimentell war. Mitte 2020. Theoretisch kann jede GPU mit WMMA-Support (RDNA 3 aufwärts) über Shader Model 6.8 angesprochen werden und Redstone ML supporten.

Die beworbenen Matrix Einheiten von RDNA3 werden ergo gar nicht benutzt.
danyundsahne schrieb:
Ersetze "AMD" durch "NV". Ergibt irgendwie genauso viel Sinn ;)
Damit ist das Image von AMD trotzdem nicht mehr das was es mal war. Besonders in dieser Sache. Keine Kommunikation trotz Leak.
 
Quidproquo77 schrieb:
Und wen interessiert das heute noch? Die Karten können genauso noch FSR 3 offiziell nutzen, wie RDNA 3, werden allerdings 10 Jahre alt. Dagegen ist RDNA3 erst kürzlich 3 geworden und RDNA3.5 1 Jahr alt.
Nun das ist eben der Malus den sich AMD zuzuschreiben hat. Die haben ihre Technik quelloffen gemacht.
Dennoch ist AMD für ihre eigene Technik (FSR3 -> FSR4) nunmal in der selben Lage wie es damals NV mit GTX10 -> RTX20 war. Man musste den HW Support eben cutten.
AMD hat es eben mit einem Ansatz versucht der NVs DLSS unterlegen war. Nur leider hat dies bis RDNA4 gebraucht um aufzuholen.
Quidproquo77 schrieb:
Als die Technik neu und experimentell war. Mitte 2020. Theoretisch kann jede GPU mit WMMA-Support (RDNA 3 aufwärts) über Shader Model 6.8 angesprochen werden und Redstone ML supporten.
Wenn ich das aber richtig verstehe, kann RDNA3 aber kein vollwertiges ML basiertes Upscaling. Sonst würde doch AMD das freigeben können. Das was damals bei NV "neu und experimentell" war, ist nun eben bei AMD neu und experimentell auf ML Basis.
Quidproquo77 schrieb:
Damit ist das Image von AMD trotzdem nicht mehr das was es mal war. Besonders in dieser Sache. Keine Kommunikation trotz Leak.
Wüsste nicht, warum das Image genau deswegen gelitten hätte. Wenn AMD HW dies nicht 100% umsetzen kann dann ist das die gleiche Situation wie bei NV damals vom Switch von GTX auf RTX. Da gab es keine Tensor Cores und man konnte daher kein DLSS auf den alten Karten anbieten. Das ist mal wieder die Erwartung einiger Menschen an AMD. Von NV wird das bei einem Generationen Wechsel wohl nicht erwartet? Da ist wohl klar, dass man neu kaufen muss. Ähnlich wie bei Intel mit ihrer Board Strategie. Jede 2. Gen spätestens ein neues Board. Manchmal sogar nach nur 1 Gen....

Und wie ist das nun mit MFG? Warum können das auf einmal keine RTX40 Karten?
Was ist an 2x MFG so viel anders als 3x oder 4x MFG? Aus welchem Grund sind die 40er Karten dazu nicht in der Lage? Nur vorgeschobene Argumente um die RTX50 zu verkaufen oder gibt es valide HW Beschränkungen von RTX40?
Pure Leistung kann es ja nicht sein, die ist ja quasi die selbe....

Von AMD wird immer weiß Gott selbstverständliche Dinge erwartet, was aber im Gengenzug von NV genauso wenig geliefert wird. Das blendet man irgendwie aus hab ich das Gefühl.
Immerhin hat AMD innerhalb einer Generation das komplette Paket Upscaling von DLSS damals (RTX20) auf DLSS4 (RTX50) aufgeholt wofür NV 4 Generationen gebraucht hat. Man war mit FSR1/2/3 schlechter als DLSS und hat nun eine Upscaler Quali, die zwischen DLSS3 und DLSS4 liegt.
Kann man denen auch mal zugute heißen...
 
  • Gefällt mir
Reaktionen: V_182, Ghostfacekalle, SweetOhm und eine weitere Person
Norebo schrieb:
Klar, die YT Beiträge, wo man heute noch moderne Spiele mit anständig angepassten Eintellungen auf einer RX580 spielen kann, allein auf RT verzichten muß, sprechen dafür, das AMD GPUs binnen weniger Jahre nutzlos werden, oder doch nicht?

Hatte jahrelang eine RX 480 und war damit zufrieden, sie wurde auch lange unterstützt.

Doch die Firmenpolitik von AMD hat sich geändert: wir supporten nur noch das neueste und lassen alles was nur etwas älter ist fallen.

'alte Zöpfe abschneiden', damit es sich schön, modern und zukunftsorientiert anhört (je nach Standpunkt marketing-sprech oder Kundenverarsche).

Leider sind die alten AMD fine wine Treiber Zeiten vorbei, heute tun sie nur noch das Nötigste, heißt: zwei Jahre alte Hardware fällt aus den Support. (Obwohl FSR 4 gut auf den 7000er Karten laufen würde)

Das macht die grüne Konkurrenz um Längen besser.
Ergänzung ()

Norebo schrieb:
Bisher ist RT das Geld nicht wert, das man dafür ausgibt und als Kunde fühle ich mich von der Industrie nicht gut bedient sondern genötigt diesen Pfad zu gehn.

+1

RT sollte optional sein für Besitzer von High end Hardware, so als eine kleine zusätzliche Spielerei. Das es inzwischen fest in engines zB UE5 verbaut ist, ohne die Möglichkeit es abzuschalten, halte ich auch für eine Art Nötigung.

Oft finde ich in Blindtests bei Vergleichsbildern das ohne raytracing sogar schöner als mit.

Vllt. werde ich auch einfach zu alt für den Scheiß.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Norebo
danyundsahne schrieb:
Dennoch ist AMD für ihre eigene Technik (FSR3 -> FSR4) nunmal in der selben Lage wie es damals NV mit GTX10 -> RTX20 war.
Das ist nicht einmal ansatzweise dasselbe, sondern sind völlig unterschiedliche Ausgangspositionen, denn RDNA3 unterstützt WMMA und Pascal gar nix davon, müsste es über die Shader emulieren.

Außerdem läuft DLSS 4 auf Turing/Ampere auch ohne dedizierte FP8 Einheiten.
Turing, Anpere und RDNA 3 können alle kein FP8 und müssen die KI Modelle von DLSS4/FSR 4 über Abstraktionsschichten abwickeln.

Mit der WMMA Beschleunigung erreicht RDNA3 allerdings deutlich mehr FLOPS als Turings Tensor Cores und hätte es selbst da einfacher.

Dass RDNA3 kein Redstone unterstützt, ergibt einfach keinen Sinn, egal wie man es dreht und wendet.
danyundsahne schrieb:
Man musste den HW Support eben cutten.
Nein AMD will lediglich RDNA3 in Bälde aus dem Treibersupport werfen, darum gibt's nichts mehr von Redstone.

Dass man das müsse ist technisch nicht korrekt.
danyundsahne schrieb:
Wenn ich das aber richtig verstehe, kann RDNA3 aber kein vollwertiges ML basiertes Upscaling.
Dass die Einheiten in den Compute Units sitzen, ändert nichts daran, dass sie das Äquivalent zu den Tensor Cores sind.

Du redest hier über RDNA2, die haben in der Tat keine entsprechende Beschleunigung.
danyundsahne schrieb:
Sonst würde doch AMD das freigeben können.
Natürlich können sie das freigeben, sie haben halt keine Lust drauf.
danyundsahne schrieb:
Wenn AMD HW dies nicht 100% umsetzen kann dann ist das die gleiche Situation wie bei NV damals vom Switch von GTX auf RTX.
Siehe oben.
danyundsahne schrieb:
Und wie ist das nun mit MFG? Warum können das auf einmal keine RTX40 Karten?
Weil die zeitliche Abfolge von drei aufeinander folgenden KI Bildern ohne HW Flip Metering wohl zu unsauberen Framepacing führen würde. Das ist zumindest plausibel, siehe dazu auch die Ausführungen im White Paper und von Alex Battaglia. (DF)
danyundsahne schrieb:
Von AMD wird immer weiß Gott selbstverständliche Dinge erwartet, was aber im Gengenzug von NV genauso wenig geliefert wird.
Genau das liefert Nvidia doch?! Siehe oben. Nvidia kappt den Support weder für Turing noch für Ampere.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: maxrl, danyundsahne, GOOFY71 und eine weitere Person
Zurück
Oben