Test DLSS 4.5 vs DLSS 4 vs. FSR AI im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich

Danke für den Bericht. Ich gehörte auch lange Zeit zu Upscaling Skeptikern, aber seit DLSS4/FSR4 nutze ich es immer. Das muss man Nvidia dann auch zugute halten, DLSS hat sich am Ende als eine der wichtigsten Innovationen der letzten Jahre herausgestellt.

AMD muss jetzt mit FSR sehr bald nachliefern. Eigentlich wurde ja ein verbessertes Upscaling mit dem Redstone Release angekündigt aber irgendwie nicht umgesetzt. Und wie soll denn dann die neue Version heißen, wenn FSR4 jetzt FSR Upscaling AI heißt? So eine blöde Bezeichnung.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Andre83hro
Bei Nvidia ist auch zu bedenken, dass sie vermutlich allein mittels GeForce Now über erhebliche Mengen an Trainingsmaterial verfügen. Würde mich wundern, wenn die Plattform dabei keine Rolle spielt.
 
S.Kara schrieb:
Schau dir mal den ersten Vergleich in AC Shadows an. FSR liefert einen unscharfen Matsch ab, DLSS daneben super scharf und Texturen.
Anhang anzeigen 1699987
Und was sagt das Voting? 20% finden das linke Bild besser, einfach nur weil es von AMD kommt.

Hier sind einfach nur harte Fanboys am Start, mehr nicht.

Ja, das ist einfach nur verrückt.

Ist halt selbstmanipulatives Verhalten vieler AMD user.

Ich meine schaut euch die Diskussionen über Raytracing, AI Cores, Upscaling allgemein an.
Immer heißt es von der AMD Userbase "braucht kein Mensch" und wenn AMD es dann irgendwann gebacken kriegt dann heißt es auf einmal "boah geil, klasse AMD, go AMD!!". Wenn es dann im Vergleich schlechter ist heißt es wieder "ja ne, das reicht schon, so genau schaut da eh keiner hin". Dann bringt AMD ne bessere Version wie FSR4, dann heißt es wieder "wow, das ist so viel besser, go AMD!" und wenn es dann auf RDNA2 und 3 nicht läuft, ist es plötzlich das größte Drama, obwohl man beim Kauf noch gesagt hat, dass das ja alles nicht so wichtig sei.

Es ist seit Jahren das selbe. AMD wird immer nur verteidigt, Kritik von AMD Usern an AMD kommt nur sehr verhalten und wenn AMD dann mal irgendwas ankündigt oder in schlechter nach macht ist es plötzlich das geilste der Welt.

Nvidia bekommt ständig lautstark kritik ab, auch und vor allem von der eigenen Userbase.
Dein Bildvergleich zeigt recht deutlich zu was das führt.

Nvidia ist nicht der geliebte und verhätschelte Underdog. Nvidia wird gedroschen wie jedes andere Multimilliarden Unternehmen wenns sein muss und für AMD sollte das gleiche gelten. Dein Bildvergleich zeigt recht deutlich zu was das führt. Das eine Unternehmen performt, das andere nicht.

Und kommt mir jetzt nicht mit Budget. Intel gehts momentan auch schlecht und wenn AMD nicht aufpasst, werden sie selbst von denen noch überholt. Letztendlich wird sowas wie DLSS und co. von recht kleinen Teams entwickelt. Da braucht es keine 10.000 Entwickler...


Vigilant schrieb:
Bei Nvidia ist auch zu bedenken, dass sie vermutlich allein mittels GeForce Now über erhebliche Mengen an Trainingsmaterial verfügen. Würde mich wundern, wenn die Plattform dabei keine Rolle spielt.

Wie soll das funktionieren? Über GeForce Now wird ja bereits DLSS angewendet. Du kannst ja nicht DLSS auf basis von DLSS Bildern Trainieren. Das führt doch zu nichts.

Nvidia sagt, dass die den Algorithmus allgemein auf Basis von Ground Truth Bildern (also 16K, 32K oder noch höher) Trainieren. Und mir wärs neu, dass GeForce Now mit so hohen Auflösungen rendert ;D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lurtz, rafiibs, Quidproquo77 und 5 andere
MiroPoch schrieb:
Lies bitte, bitte den Artikel. Da heißt es nahezu immer, FSR 4 ist zwischen DLSS 4 und DLSS 4.5
Fazit zu FSR AI vs DLSS 4(nicht 4.5!)

Auch FSR Upscaling AI ist eine wirklich gute Upsampling-Technologie, die oft der nativen Auflösung überlegen oder mindestens ebenbürtig ist. Aggressive Modi können in hohen Auflösungen problemlos gefahren werden und sind auch in niedrigen Auflösungen noch gut zu benutzen. Hier hat DLSS 4 aber immer wieder einen Vorteil.

Der größte Unterschied ist in dem detaillierteren Bild zu sehen, das gerade in Bewegung mit DLSS klar besser ist. Und nein, mit Nachschärfen kann das Ergebnis nicht erreicht werden, hier muss AMD das Upsampling selbst verbessern.
 
  • Gefällt mir
Reaktionen: Quidproquo77
Blackfirehawk schrieb:
Meines Wissens nach ist FSR4 ebenfalls ein "Transformer" Modell
FSR 4 ist wohl ein Mix aus CNN- und Transformer-Modell.
 
  • Gefällt mir
Reaktionen: eastcoast_pete
Mimir schrieb:
Ist halt selbstmanipulatives Verhalten vieler AMD user.
Ist halt der grundsätzliche psychologische Effekt des "Besitz-Bias" aus dem Spielfeld der kognitiven Dissonanz.
 
  • Gefällt mir
Reaktionen: eastcoast_pete
Blackfirehawk schrieb:
Meines Wissens nach ist FSR4 ebenfalls ein "Transformer" Modell
Ich weiß nicht, ob sich da mittlerweile etwas getan hat, aber GamersNexus berichtet hier auch über einen klassischen CNN der zum Einsatz kommt: AMD’s FidelityFX Super Resolution (FSR) upscaling has finally moved into the “AI” buzzword era with FSR 4’s machine-learned Convolutional Neural Network (CNN) model co-developed with Sony. Sony and AMD announced a collaboration effort back in December of 2024, dubbed “Project Amethyst.”

Auf die Schnelle finde ich keine fundierten Infos über den Einsatz eines Transfomers. Hast du aktuellere Quellen?
 
  • Gefällt mir
Reaktionen: Grestorn
zeedy schrieb:
Und wie soll denn dann die neue Version heißen, wenn FSR4 jetzt FSR Upscaling AI heißt? So eine blöde Bezeichnung.
Damit du dann als User nicht mehr nachvollziehen kannst was da ingame verbaut ist..
Kann FSR3 sein.. oder FSR4.. Oder FSR4.5..
Wenn du es nicht weist..
machst du dir auch keine Gedanken darüber wie es im Vergleich zu anderen upscalern performt..

Ist ungefähr so wie wenn du dir die Latenz Anzeige in Game ausschaltest.. wenn du deinen Ping zum Server nicht weißt.. macht es dich nicht heiß
 
Ich war immer gegen Upscaling bis ich bei Battlefield 6 einmal DLSS (RTX 3080) und jetzr FSR (RX 9070 XT) ausprobiert habe.

DLSS war minimal besser (DLSS Balanced entspricht ca. FSR Quality). Mit FSR Quality bei 1440p Ultrawide merke ich es, wenn ich genau schaue. Ohne Verlgeich einfach nur beim Zocken fällt es mir gar nicht auf
 
  • Gefällt mir
Reaktionen: danyundsahne
Vigilant schrieb:
Ist halt der grundsätzliche psychologische Effekt des "Besitz-Bias" aus dem Spielfeld der kognitiven Dissonanz.

Unter diesem Einfluss wird ausnahmslos jeder stehen. Dessen schließe ich mich auch nicht aus.

Trotzdem kommt man irgendwann an einen Punkt wo man schon alle Augen und Ohren verschließen muss um diesen Bias aufrecht zu erhalten.

Die Frage ist also weniger, ob dieser Bias existiert, sondern wie viel es braucht, um ihn zu überwinden und dann auch sagen zu können "ja, das eigene Produkt ist hier klar und deutlich schlechter".
 
  • Gefällt mir
Reaktionen: Vigilant
Neubauten schrieb:
Auf die Schnelle finde ich keine fundierten Infos über den Einsatz eines Transfomers. Hast du aktuellere Quellen?
Gerade nicht. vielleicht hab ich mich da auch verlesen. War bisher der Meinung das es ebenfalls ein Transformer Model ist.

Aber gut möglich das @Wolfgang da Recht hat das es ein hybrid aus CNN und Transformer ist...

Im Endeffekt ist es aber egal, denn es
ändert nix an meiner Aussage das Nvidia einfach wesentlich früher angefangen hat das ganze zu füttern auf wahrscheinlich Leistungsfähigerer Hardware.
 
  • Gefällt mir
Reaktionen: Neubauten
Mimir schrieb:
Die Frage ist also weniger, ob dieser Bias existiert, sondern wie viel es braucht, um ihn zu überwinden und dann auch sagen zu können "ja, das eigene Produkt ist hier klar und deutlich schlechter".
Wenn du dir anschaust wie viele Forennutzer hier angeben, trotz dieses Wissens eine AMD Karte gekauft zu haben, scheint die Hürde dafür zumindest hier im Forum riesig zu sein. Das war schon vor langer Zeit so, aber seit dem AMD eine sehr gute CPU Plattform liefert, wurde dieses Verhalten nur noch verstärkt und man kauft blind Sachen von "seinem" Hersteller, statt das bessere Produkt an sich.
 
S.Kara schrieb:
Schau dir mal den ersten Vergleich in AC Shadows an. FSR liefert einen unscharfen Matsch ab, DLSS daneben super scharf und Texturen.
Anhang anzeigen 1699987
Und was sagt das Voting? 20% finden das linke Bild besser, einfach nur weil es von AMD kommt.

Hier sind einfach nur harte Fanboys am Start, mehr nicht.
Ohje nicht mal ein Blindtest würde etwas bringen. Diese Fanboys würden dann einfach für den Matsch stimmen, weil die wissen, dass dahinter nur FSR stecken kann. Irgendwie traurig aber auch lustig.
 
  • Gefällt mir
Reaktionen: Izaya27
Ich betrachte nach all den Berichten und Videos und vergleichen die ich so sehe das ganze einfach folgendermaßen

FSR4 ist auf dem Level von DLSS3.5

DLSS4.5 P (M)= DLSS4-B (K) = FSR4-Q


FSR3 = TAA = XeSS-Q < DLSS4.5 UP (L) und damit aus dem Rennen raus

Interessant find ich jedoch immer wieder das die gleichen Leute die ständig sagten der Unterschied zwischen FSR und DLSS guckt sich weg.. sich nun einen auf FSR4 abkeulen

Alles was die RX9070xt ist.. und kann.. hat man schon 2-3 Jahre früher mit ner RTX4080 haben können..
Und das mit nur n leichten Aufpreis gegenüber der 7900xtx.. die stand heute schrecklich gealtert ist. (Was auch absehbar war)
 
Zuletzt bearbeitet:
Mimir schrieb:
Unter diesem Einfluss wird ausnahmslos jeder stehen. Dessen schließe ich mich auch nicht aus.
Absolut. Ist auch irgendwie normal, aber allein das Bewusstsein darüber hilft. Und es ist auch häufig nur eine Momentaufnahme. Ist nur schade, dass daraus häufig eine Tribalisierung und damit Spaltung erfolgt. Komplett überflüssig.

Aber wir schweifen ab.

Hatte ich bereits erwähnt, dass ich die Kombination aus DLSS, FG, RT/PT und hohen FPS ziemlich gut finde? Ganz aktuell in Cyberpunk mal wieder? Allein, was Pathtracing und Ray Reconstruction mit Beleuchtung und Schatten anstellen ist klasse.

Nicht immer gänzlich fehlerfrei, aber herkömmliche Verfahren, wenn sie nicht gerade extrem darauf optimiert wurden (bspw. in The Last of US Remake, Teil 2 oder KCD2), sehen plötzlich vergleichsweise flach aus.
 
Vigilant schrieb:
Nicht immer gänzlich fehlerfrei, aber herkömmliche Verfahren, wenn sie nicht gerade extrem darauf optimiert wurden (bspw. in The Last of US Remake, Teil 2 oder KCD2), sehen plötzlich vergleichsweise flach aus.
PT komplett ja..
bei RT Effekten wie Schatten, Beleuchtung und Reflexion kommt es bei mir wirklich aufs Spiel und den einzelnen Effekt an

Oftmals sieht es nur ähnlich.. aber nicht besser aus.. wie ein leicht anderer artstyle.. und oft muss man es auch mit der Lupe suchen ..
Einzelne Effekte sind definitiv nicht immer die Performance kosten wert.


Und oftmals sind es auch nur ausgewählte zenen die profitieren wärend man sich die globale Performance für diese 1-2 zenen verkrüppelt.

Man muss da wirklich von Spiel zu Spiel .. Effekt zu Effekt unterscheiden.
 
  • Gefällt mir
Reaktionen: Vigilant
Fika schrieb:
Nutzt nativ, dann mit TAA oder DLAA, nicht ebenso mehrere Frames, die bei Bewegung (was praktisch immer der Fall ist) zwangsläufig auch versetzt sind?
TAA, als temporäres Anti-Aliasing, nutzt das ebenfalls; das ist korrekt (aber, soweit ich weiß, ohne Jittering). Aber eben mit deutlich sichtbar schlechterem Ergebnis, wie sich leicht nachweisen lässt, und den selben Nachteilen, die auch AI-Upscaling-Verfahren haben, ohne deren Vorteile bei den Details zu haben (eben wegen des fehlenden Jitterings).

Das Jittering (also, dass jedes Frame um einen winzigen Versatz – kleiner als ein Pixel – versetzt gerendert wird, sodass die sonst "durch das Render-Raster" fallenden Details wieder auf das Raster fallen und damit rekonstruiert werden können) ist ein entscheidender Faktor.

Das hat nichts damit zu tun, dass durch die Bewegung automatisch versetzt wird. Das Jittering funktioniert auch bei einem stehenden Bild, dann sogar am besten.

Man kann das sogar sehen: Gerade bei "Performance" ist nach einer schnellen Bewegung, wenn man dann die Maus loslässt, das Bild für einen Moment etwas unscharf, bevor es dann die volle Schärfe erhält - weil dann eben wieder mehere Frames für die selbe Szene berücksichtigt werden können.

Die ganzen Frames dann so zusammenzurechnen, dass ein scharfes, konsistentes Bild entsteht, auch in Bewegung, bei Animationen und Okklusion – wenn die Bildänderung naturgemäß verhindert, dass der Algorithmus auf die Daten vorhergehender Frames zurückgreifen kann – das ist die eigentliche Kunst, bei der dann die Tensor-Kerne und das, was man als "AI" bezeichnet, und der verwendete Algorithmus den großen Unterschied machen.
Ergänzung ()

Blackfirehawk schrieb:
Meines Wissens nach ist FSR4 ebenfalls ein "Transformer" Modell
So weit man weiß , entspricht FSR 4 AI technologisch der dem DLSS 3 "Convolutional Neural Network".
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Taxxor und Fika
Blackfirehawk schrieb:
bei RT Effekten wie Schatten, Beleuchtung und Reflexion kommt es bei mir wirklich aufs Spiel und den einzelnen Effekt an
Absolut. Hier schaue ich auch immer je nach Implementierung, ob sich das tatsächlich auch optisch lohnt und den Performance-Aufwand wert ist.
 
NguyenV3 schrieb:
Ohje nicht mal ein Blindtest würde etwas bringen. Diese Fanboys würden dann einfach für den Matsch stimmen, weil die wissen, dass dahinter nur FSR stecken kann. Irgendwie traurig aber auch lustig.

Zumindest bei DLSS4.5 muss man aber auch sagen, dass es in manchen Beispielen überschärft aussieht, wohingegen DLSS4 und FSR4 dann weniger überschärft aussehen. Bei diesen Beispielen könnte ich also sogar noch verstehen, wenn manche FSR4 oder DLSS4 gewählt haben. Es sind aber auch ein paar Spiele dabei wo kein Scharfzeichner sichtbar ist und DLSS4.5 komplett neutral aussieht. Da verstehe ich wiederum nicht, warum der extreme FSR4 Matsch dann bevorzugt wird.

Das Problem ist halt, dass DLSS4.5 in den meisten Fällen deutlich detaillierter und klarer definiert ist, aber die vom Spiel erzwungenen Scharfzeichner ein Bereits scharfes Bild maßlos überbetonen, während unscharfer Matsch von den meisten Scharfzeichnern gar nicht erst zur Bearbeitung erfasst wird, da sie in erster Linie nur versuchen die Kanten die schon da sind zu betonen.

Will man also dass der Scharfzeichner so wenig Kanten wie möglich erfassen kann, wählt man den Upscaler der das unschärfste und vermatschteste Bild überhaupt erzeugen kann.

Die Scharfzeichner im Spiel sind halt leider auf TAA Unschärfe ausgelegt. Damit sieht die Schärfung noch halbwegs natürlich aus. Für moderne Upscaler die keinen TAA blur mehr haben ist die Schärfung viel zu viel und völlig überflüssig und muss daher unbedingt abgeschaltet werden. Geht in vielen Spielen aber nicht oder nur über config files oder Mods. Und selbst wenn es abschaltbar ist, ist oft noch ein weiterer Schärfefilter aktiv. Dass das der Fall ist merkt man dann z.B. in UE5 spielen erst, wenn man über die Engine.ini den scharfzeichner per befehl deaktiviert und dann erst realisiert "oh, da war ja NOCH EIN filter drüber". Häufig hat man also zwei scharfzeichner aktiv. Einen ingame regelbar und ein weiterer der nur über Config files abschaltbar ist. Es ist ein Witz....

Das ist wirklich ein extrem nerviges Problem, das die Spieleentwickler angehen müssen. Ich kann daher nur jeden empfehlen in Foren, auf Steam oder in Form von Support Tickets Entwickler darauf aufmerksam zu machen, die Scharfzeichner optional zu machen. Manchmal wird so ein Feedback auch tatsächlich erhört, wie im Fall von Last of Us Part 2, das zum Release erzwungenen scharfzeichner hatte und dann nach lauter Kritik via Patch komplett optional war. Und siehe da, wenn man den Scharfzeichner abschaltet, sieht DLSS4.5 in dem Spiel fantastisch aus und zeigt keinerlei Anzeichen von Schärfung. Last of Us Part 1 sieht hingegen wie man hier im Test sieht, absolut furchtbar aus, weil der Scharfzeichner nur über einen Hex edit abschaltbar ist. Da war die Kritik leider nicht laut genug und spätestens jetzt mit immer besseren Upscalern bekommen wir die Quittung dafür. Der scharfzeichner erfasst durch die höhere Bildqualität immer mehr Details und sieht komplett kaputt und übertrieben aus.
 
Zuletzt bearbeitet:
zeedy schrieb:
jetzt FSR Upscaling AI heißt? So eine blöde Bezeichnung
Es heißt FSR Upscaling, ohne AI. Vermutlich unterscheidet zukünftig einfach die Treiberversion, weil ab 3.1 muss ja nicht mehr die neueste Version im Spiel integriert sein, der Treiber ersetzt nun durch seine Version. Aktueller Treiber, aktuelles FSR.

Andererseits hast mit DLSS 4.5 Preset K im Endeffekt quasi DLSS 4.0.
Aber hier wird wieder der selbe Fehler wie bei USB, Displayport usw begangen. Man spricht von USB 3.0 obwohl (oft) eigentlich USB 3.2 mit 5 Gbps gemeint ist. DLSS in der neuen Version 4.5 wurde um zwei Presets erweitert, wie USB 3.2 gegenüber USB 3 um (unter anderem) die Geschwindigkeitsprofile 10 und 20 Gbps bekam. Die neuen Versionen sind schlicht abwärtskompatibel, bzw erlauben ältere Presets/Profile zu verwenden. DP 2.1 bleibt 2.1 auch wenn man den HBR3 Übertragungsmodus nutzen sollte.

Von DLSS 4.5 zu reden bringt wenig, interessant ist das verwendete Preset K, M oder L.
Ergänzung ()

Grestorn schrieb:
TAA, als temporäres Anti-Aliasing, nutzt das ebenfalls; das ist korrekt (aber, soweit ich weiß, ohne Jittering).
Wie auch immer das im Detail genau funktioniert, aber bei Stillstand kann ja schlecht nur stur mehrfach das exakt identische Frame zur Kantenglättung benutzt werden, oder?
ich finde TAA auch furchtbar.
 
Zuletzt bearbeitet:
Zurück
Oben