Test Nvidia DLSS 4.5 (SR) im Test: Analysen & Benchmarks auf RTX 5000, 4000, 3000 & 2000

Gibt auf YT Vergleichsvideos zwischen 1440p DLSS4.5 Preset K Quality und Preset M Performance - und letzteres sieht selbst im tot komprimierten YT Video merkbar besser aus (Beispiel)!
Könnte sich CB dass so auch mal genauer an sehen?
 
@TheInvisible Deswegen denke ich auch, das bei einer Vereinheitlichung am Ende ein spielinterner Benchmark der auf Basis der Benutzervorgabe von FPS und Auflösung dann das Spiel konfiguriert, der beste Kompromiss wäre. Das sind 2 Werte, mit denen die Gamer noch am ehesten was anfangen können...und die Spieleentwickler können eine Benchmarkszene einbauen, welche die Durchschnittslast im Spiel am besten abbildet und auf Basis der Ergebnisse dann das Spiel konfiguriert.
 
  • Gefällt mir
Reaktionen: SweetOhm
Danke für den Test
Ich werde den neuen Treiber nicht für meine 2080 (ohne TI) installieren.
 
  • Gefällt mir
Reaktionen: derMutant
TheInvisible schrieb:
Wenn du RR einschaltest wird immer das RR Preset genommen, L und M sind nur normale Presets. Da es kein Update für das RR-preset gab hat sich hier auch nichts geändert.
Ah, o.k. Danke, dachte auch schon in die Richtung.
 
Blackfirehawk schrieb:
@Wolfgang
Wie steht denn mittlerweile RDNA3 mit FSR3 da im Vergleich zu den neuen Upscalern?
Bzw wie wirst du sie in Zukunft benchen? Mit XeSS oder FSR-Nativ/TAA nativ
FSR 3 ist im Vergleich zu FSR 4, DLSS 4 und DLSS 4.5 absolut grausam. Punkt. Mehr gibt es da nicht zu sagen. Ob der Vergleich mit FSR 4, DLSS 4 oder DLSS 4.5 stattfindet, macht da gar keinen Unterschied. Auch die Modi und Auflösungen sind egal. FSR 3 ist immer grausam im Vergleich.
Vigilant schrieb:
Ja, das ist möglich. Zudem wird mit Ray Reconstruction auch das Preset wieder umgestellt (D), obwohl M forciert. Keine Ahnung, ob Anzeigefehler oder anderes...
Ray Reconstruction nutzt generell ein anderes neuronales Netzwerk als DLSS SR. Ist also DLSS RR aktiv, wird DLSS SR abgeschaltet und RR übernimmt das gesamte Bild.
ragnarok666 schrieb:
Gibt auf YT Vergleichsvideos zwischen 1440p DLSS4.5 Preset K Quality und Preset M Performance - und letzteres sieht selbst im tot komprimierten YT Video merkbar besser aus (Beispiel)!
Könnte sich CB dass so auch mal genauer an sehen?
Gibt auch bei uns zahlreiche Videos in dem Artikel. Ohne YT-Komprimierung und du kannst sogar selbst die Abspielgeschwindigkeit ändern, rein oder rauszoomen und die Kameraperspektive ändern :)
 
  • Gefällt mir
Reaktionen: derMutant, hahaqp, MiroPoch und 5 andere
danyundsahne schrieb:
Ist leider die Realität
Wieso leider? Ich kenne mich mit den Sachen aus, habe aber gar kein Bock pro Spiel da rumzufriemeln bis es passt. Es soll laufen. :)
 
  • Gefällt mir
Reaktionen: danyundsahne und Farcrei
Hallo @Wolfgang , zunächst vielen Dank für den sehr informativen Test. Eine Frage an dich hätte ich: Ich spiele mit einem 9800X3D und einer 5090, zur Zeit Anno 117, Hogwards Legacy (ohne RayTracing, dazu gleich noch eine Frage), FF7 Rebirth und Fortnite. Wenn du dich ein ein Preset festlegen müsstest, quasi set and forget: Preset M oder Preset K? Und Quality oder Balanced? Bei jedem Spiel individuel zu wechseln ist nichts für mich😄

Dann noch abschliessend: Auch mit RayReconstruction flackert das RayTracing bei HL bei mir bis zum geht nicht mehr; es macht es sogar noch schlimmer. War es tatsächlich bei dir so, dass RR das Flackern mit Raytracing bei dir behoben hat?
Ich musste Raytracing abschalten um HL spielen zu können.
 
Wie verhält es sich mit den Profilen eigentlich in Spielen, die DLSS Modi ingame zur Auswahl haben?
Wenn ich global das aktuellste Preset wähle, wird dann mein ingame Setting (zB in Cyberpunk/KCD2) immer ignoriert/overruled?
 
Return2Burn schrieb:
Es ist mittlerweile sicher auch Meckern auf hohem Niveau und ja Nvidia ist da sicher weiter, aber es nützen die besten Featuresets nichts, wenn die meisten Gamer...nicht ITler und Enthusiasten gar nicht verstehen, was die machen und wie man sie am besten einstellt. Für die breite Masse wäre hier mehr Automatismus einfach zielführender.
Dieser "Automatismus" nennt sich halt Konsole. Wenn man sich halt bei einer offenen Plattform nicht mit paar Einstellungen auseinandersetzen will muss man halt ein geschlossenes System nehmen. PC wird halt nie perfekt voreingestellt sein weil man je nach Vorlieben und Display/Fernseher was anderes nutzt.
 
Wolfgang schrieb:
FSR 3 ist im Vergleich zu FSR 4, DLSS 4 und DLSS 4.5 absolut grausam. Punkt. Mehr gibt es da nicht zu sagen. Ob der Vergleich mit FSR 4, DLSS 4 oder DLSS 4.5 stattfindet, macht da gar keinen Unterschied. Auch die Modi und Auflösungen sind egal. FSR 3 ist immer grausam im Vergleich.
Da gebe ich dir absolut Recht..
Aber wie willst du sie denn in Benchmarks dann noch vergleichen?

Wäre die traurige Konsequenz die darauf folgt nicht eigentlich das man RDNA2+3 Karten aus den Benchmarks raus schmeißt wegen nicht mehr vergleichbar(faulender Arm abhacken und so)

Ich weis klingt jetzt vielleicht hart.. aber sehe ich langfristig als einzig sinnvolle Maßnahme was Vergleichbarkeit angeht
 
cvzone schrieb:
Bei mir haben die Spiele dann trotz der ganz aktuellen DLL oft nur das Modell K verwendet.
Es gibt nicht ohne Grund im DLSS Swapper die Einstellung für das gewünschte Profil.
1767953373045.png


Es ist aber eigentlich anders herum! Die Bibliotheken brauchen nicht mehr ersetzt zu werden, der Treiber nutzt automatisch eine aktuelle Version, auch wenn im Spieleordner noch die alten liegen. Mit dem DLSS Swapper lassen sich aber sehr übersichtlich die Profile festlegen wenn man nicht die Nvidia App nutzen möchte.

Die Alternative, der Nvidia Profile Inspector, ist da zwar mächtiger aber vergleichsweise unübersichtlich und man muss sich die Spiele selbst heraussuchen. Derzeit ist der DLSS Swapper halt das bequemste Tool, mit 100mb Größe ein Leichtgewicht der sich auch ohne Installation nutzen lässt und es unterstützt jegliche Stores direkt.
1767953883360.png


Die Nvidia App ist praktisch "Bloatware" die nicht einmal die Manipulation aller Spiele unterstützt und der Profile Inspector sehr unübersichtlich, wenn man mehrere Spiele installiert hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: _Cassini_
Aber in der Praxis ist es ja so, dass jedes Spiel immer das Standard DLSS Verfahren vom Entwickler im Bauch hat. Zum Beispiel bei Stalker 2 DLSS3. Solange man nicht manuell eingreift ist immer das mitgelieferte des Spiels aktiv?
 
mit meiner 5070Ti erreiche ich in KCD2 2160p superschöne GFX mit 144fps !!! DLSS4.5 ! NVIDIA NO.1
Der neue Treiber hat es in sich ! Alle Games sind deutlich schneller !
meine 3060 rennt jetzt auch endlich bei 54Grad stable 😂 die dürfte davon auch nochmal profitieren ! NVIDIA ist genial ! NVIDIA NO.1 !
 
Kurz eine Verständniss Frage. Wenn ich DLAA nutze, spielt es eine Rolle ob ich DLSS 4.0 oder 4.5 nutze? DLAA rendert ja nativ - deshalb der Gedanke.
 
NVIDIA leistet was das angeht wirklich gute Arbeit. Wann kommt FSR 4.5? 🙈
 
Mit der 5090 FE ist der Stromverbrauch von M zu K, beides im Quality Modus und 4k so extrem gestiegen. Da muss doch etwas faul sein. Ja die Karte kann 575W aber doch bitte nicht dauerhaft ohne überhaupt wieder die 144 fps in Hunt zu knacken. Da bleibe ich weiterhin bei K und schärfe mit 0.1 nach
 
Blackfirehawk schrieb:
Nicht so wie bei AMD wo man einfach alte Karten ignoriert... Dort hat man die Wahl "bessere Bildqualität bei weniger Leistung" eben nicht..

RDNA3 ist brutalst schlecht gealtert
AMD hat technisch die falsche Entscheidung getroffen und damit für RDNA einen schlechten Grundstein gelegt, sofern man die RDNAs überhaupt als Familie bezeichnen kann.
Bereits DLSS2 beim Release der RTX3000er zu denen RDNA2 der Gegenspieler war, hat gezeigt wo die Reise hingeht und den Sprung den AMD zu den 9000ern gemacht hätten sie schon mit den RX7000ern machen müssen.
Das ist unter anderem auch ein Grund warum AMD nicht wirklich Marktanteil aufholen konnte.

Meine 9070XT ist eine tolle Karte und für mich hat es sich definitiv gelohnt von der 3090 zu wechseln.
Im anderen Rechner die 4090 bleibt aber wohl noch lange drin, solange die so mit Updates versorgt wird.

Ich muss mir jetzt nochmal frame Generation anschauen. Das hatte ich Mal vor Ewigkeiten bei Cyberpunk ausprobiert und hat mich damals eher abgeschreckt, soviel Ghosting und Artefakte die das Bild ruiniert hatten.
 
Danke das ihr euch die Mühe gemacht habt noch eine 3090(Ti) mit aufzunehmen :D
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Mr.Zweig
@KuroSamurai117 Stimme ich dir auch durchaus zu und mir ging das beim Schreiben der Zeilen durchaus auch durch den Kopf.
Nicht ganz uneigennützig wollen wir PC Gamer doch aber auch, das unsere Plattform relevant bleibt und da wäre es doch günstig, wenn sie einsteigerfreundlicher wäre, was durch so eine automatische Benchmarkkonfiguration doch durchaus gegeben wäre. Ich hab sowas in der Art auch schon in 2-3 Spielen gesehen, auch wenn mir gerade leider kein Name einfällt.

 
  • Gefällt mir
Reaktionen: KuroSamurai117
Zurück
Oben