Test Nativ vs. DLSS 4.5 vs. FSR AI: Ihr wählt euren Favoriten in sechs Spielen im Blindtest

Ich weiß man braucht einen echten Vergleich aber DLSS 4.5 in Perfomance wäre geil gewesen gegen FSR Quality zu vergleichen.

Wolfgang hat mich zu einem ... Perfomance ist das neue Quality gemacht jedenfalls in 4k und das sage ich mit einer 5090 :)
 
Pro_Bro schrieb:
1440p mit Quality Mode wäre wirklich spannend als Vergleich. Ist zumindest die mit Abstand meist genutzte Auflösung der Community hier. Ansonsten finde ich es schwierig zu verallgemeinern das doch jeder Super Sampling nutzen soll weil es doch immer besser aussieht, was hier leider viel zu oft gemacht wird.
Mich würde auch sehr ein Vergleich 1440p Quality mit dem M Modell interessieren, auch wenn das performancetechnisch schlecht abschneidet. Ein Test DLSS 4.5 Modell M Quality vs. DLSS 4.0 Quality und ev. 4.5 Balanced/performance wäre gut. Kurz gesagt um die Einschätzung: ist 4.5 Model M Quality nochmal deutlich besser als 4.5 Performance und der Performanceverlust somit gerechtfertigt?
 
Ich sehe hier definitiv Unterschiede, einmal deutlicher einmal weniger deutlich. Würde mich wundern, wenn FSR nicht jedes Mal am schlechtesten abschneidet. Habe selber eine 9070 XT gekauft und bereue es teilweise schon ein wenig.
 
Taxxor schrieb:
Ob damit trainiert wird oder einfach nur das Ergebnis am Ende damit vergleichen wird um zu schauen wie gut der Algorithmus gearbeitet hat, sind zwei verschiedene dinge
Nein, sind sie nicht. Das Vergleichen ist doch Teil des Trainings. Wie stellst du dir das Training vor, ohne dass du das Ergebnis mit der GT vergleichst?
 
Ich hab irgendwie mehr und mehr das Gefühl, dass viele User beim Videoplayer nicht 100% ausgewählt haben und deswegen keine Unterschiede ausgemacht haben. Kann mir anders nicht erklären, wieso so viele schreiben dass sie keinen Unterschied erkennen würden.
Wenn man "Fit" auswählt verzerrt der Player logischerweise das Bild extrem. Ich kann zB überhaupt nicht nachvollziehen, wieso TLOU so viele Stimmen bei Video 2 bekommen hat, wenn man da einfach bei 100% oder 200% auf den Zaun und den Übergang der Haare achtet. Ist für mich eins der eindeutigsten Games (vor allem in Bewegung):

Bildschirmfoto 2026-02-04 um 12.20.18.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, Pro_Bro und Grestorn
Norebo schrieb:
Die Farbbrillanz bei AMD ist schon seit jeher besser als bei NV - farblich ist AMD der Spitzenreiter und mir ist Farbe sehr wichig.
Das wusste ich gar nicht, dass es da Unterschiede gibt? Mir ist (korrekte) Farbe auch sehr wichtig, deshalb profiliere ich meine Bildausgabe immer mit einem Kolorimeter. Wenn es da wirklich Unterschiede zwischen der Herstellern geben sollte (mir bisher nie aufgefallen) werden diese dann ja durch die Kalibrierung egalisiert.

Aber wenn dir Farbbrillanz wichtig ist, könnte Dir das kalibrierte Bild vermutlich etwas zu fad und gelbstichig ausfallen.
 
Taxxor schrieb:
hat, sind zwei verschiedene dinge und mit einer Ground Truth zu trainieren ist eben nicht "allgemein bekannt" sondern das was mit DLSS2 verworfen wurde.
Das Thema ist an der Stelle allerdings deutlich komplexer und auch wenn Nvidia die Art wie DLSS arbeitet, umgestellt hat zwischen DLSS 1 und DLSS 2, wird DLSS immer noch auch mit Bildern trainiert und auch die Vergleichsbilder dienen am Ende dem Training, weil bewertet wird, wie gut man sich dem doch annähert und das Modell daraus auch lernt.
 
  • Gefällt mir
Reaktionen: Andre83hro und adfsrg
G00fY schrieb:
Kann mir anders nicht erklären, wieso so viele schreiben dass sie keinen Unterschied erkennen würden.
Das kommt doch schon sehr auf das "Auge" an, wie empfindlich man für so "Feinheiten" ist. Meine Frau spielt auch viele Videospiele, sie hat bei dem Vergleich auch fast gar keine Unterschiede gesehen. Zitat: "Die veräppeln euch doch!". Sie meint, da wären teilweise Fallen eingebaut, wo zwei Videos exakt dasselbe zeigen und wir trotzdem Unterschiede sehen. ...wer weiß. Lustig wär's ;)
 
  • Gefällt mir
Reaktionen: angHell
Norebo schrieb:
Die Farbbrillanz bei AMD ist schon seit jeher besser als bei NV - farblich ist AMD der Spitzenreiter
Gibt es dafür eine valide Quelle? Wäre mir neu, zumal in der Kette noch Monitor und ggf. Software (hier Games) hängen. Unter Farbbrillianz versteht vermutlich auch jeder etwas anderes. Und Farbbrillianz != Farbgenauigkeit.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Grestorn und Nihil Baxxter
G00fY schrieb:
Ich hab irgendwie mehr und mehr das Gefühl, dass viele User beim Videoplayer nicht 100% ausgewählt haben und deswegen keine Unterschiede ausgemacht haben.
Dem schließe ich mich an.

@Wolfgang könnt ihr den ICAT Player so konfigurieren, das 100% scaling der default ist?
Wie habt ihr den überhaupt eingebunden? Ich wollte eben nach der doku dazu googlen, aber außer der Desktop app habe ich nichts gefunden.
 
  • Gefällt mir
Reaktionen: Pro_Bro
Nvidia nutzt eine Grundeinstellung die keine volle RGB Range bietet.

Einfach googlen...
 
Norebo schrieb:
Die Farbbrillanz bei AMD ist schon seit jeher besser als bei NV - farblich ist AMD der Spitzenreiter und mir ist Farbe sehr wichig.

(Ich rede nicht von Optionen zum nachkolorieren)

Nihil Baxxter schrieb:
Das wusste ich gar nicht, dass es da Unterschiede gibt? Mir ist (korrekte) Farbe auch sehr wichtig, deshalb profiliere ich meine Bildausgabe immer mit einem Kolorimeter. Wenn es da wirklich Unterschiede zwischen der Herstellern geben sollte (mir bisher nie aufgefallen) werden diese dann ja durch die Kalibrierung egalisiert.

Aber wenn dir Farbbrillanz wichtig ist, könnte Dir das kalibrierte Bild vermutlich etwas zu fad und gelbstichig ausfallen.


Nein, da gibt es keine Unterschiede. Es ist nur so, dass manche Nutzer es nicht schaffen, die Displaysettings im Treiber richtig einzustellen und dann ggf. mit begrenztem RGB statt vollem RGB Bereich arbeiten und dadurch Kontrast und Farben leiden.

Würde es Unterschiede geben, wären die ja auch hier in dem Videos hier sichtbar, denn diesmal wurde ja mit einer externen Capture Card aufgenommen, welche ja direkt als "Display" an den Output der Grafikkarte angeschlossen wird und sich für die Grafikkarte eben wie ein normaler Monitor verhält.
 
  • Gefällt mir
Reaktionen: N0Thing, Quidproquo77, ev4x und 2 andere
Wolfgang schrieb:
Das habe ich bei Videos für die nächste Testreihe übrigens auch festgestellt.
Vielleicht könnte man wenigstens ein paar Basisvorgaben machen. Ich habe bei abgeschaltetem HDR etwa wesentlich weniger Unterschiede gesehen und mich dann auch gefragt, wie viel der Monitor jetzt an Helligkeitsinformation ins Bild reininterpretiert hat und wie groß der Anteil der Bildausgabe wirklich ist. Da es ein Video und keine selbst gerenderte Szene war, lässt sich das auch schlecht reproduzieren - von meiner Beschränkung auf FSR mal ganz zu schweigen :D.
 
Norebo schrieb:
Nvidia nutzt eine Grundeinstellung die keine volle RGB Range bietet.
Oje.... Wie kommst du auf so einen Unsinn? Wenn du die HDMI Range meinst, da nimmt Nvidia (und hoffentlich auch AMD/Intel) das was der Fernseher über EDID mitteilt. Das zu überschreiben, obwohl es falsch im Ausgabegerät konfiguriert ist, würde zu massiven Verfälschung der Ausgabe führen.

Die Einstellung konfiguriert man am Ausgabegerät, bei einem LG Fernseher muss dafür zum Beispiel der Eingang auf "PC" umgestellt werden, aber niemals im Treiber selbst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, ev4x, Grestorn und eine weitere Person
Der selbe Vergleich mit Performance-Modes beim Upsampling wäre auch noch interessant ;)
 
Meines Wissens nach ist der NV Farbunterschied ein Relikt aus einer Zeit, als NV eine geringere RGB Range implementiert hat, weil das besser zu ihrem Farb-Komprimierungsalgorythmus gepasst hat, der dadurch schneller verarbeitet werden konnte.

Es gab mal eine relativ guten erklärenden Text dazu, den ich aber im Internetozean nicht mehr finde.

Glaubs oder glaubs nicht...
 
  • Gefällt mir
Reaktionen: Krazee
Nihil Baxxter schrieb:
Das kommt doch schon sehr auf das "Auge" an, wie empfindlich man für so "Feinheiten" ist.
Naja, aber der Sinn des Tests ist es ja eben diese Feinheiten bewusst auszumachen. Ich stimme dir zu dass man da je nach Situation im Alltag keinen Blick für hat. Aber diese Unruhe bei TLOU im Bild ist wirklich extrem auffällig wenn man sich das Bild im Vergleich anschaut. Dass dann noch 25% der Leute dieses als "bestes" auswählen zeigt mir, dass da was faul sein muss. Wenn man das Video natürlich auf "Fit" schaut skaliert der Player alle Videos so, dass diese Unruhe und Artefakte entstehen.
:freak:
Bildschirmfoto 2026-02-04 um 13.21.16.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Redundanz und Nihil Baxxter
Ich Frage mich ob anisotrophische Filterung an oder aus war und wenn an auf welchen werten?

Kommt mir das nur so vor oder macht dlss 4.5 manche lichter störend grell? kann auch an meinen rtx hdr einstellungen liegen, aber killt das nicht die Stimmung in manchen games so im Vergleich bei dlss 4 und 4.5 ? ist aber ja rein subjektiv.
 
Zurück
Oben