Test Nvidia DLSS 4.5 (SR) im Test: Analysen & Benchmarks auf RTX 5000, 4000, 3000 & 2000

TheInvisible schrieb:
Aber auch erst seit dlss4, vorher nutze man die dedizierten Hardware. Wenn das zu lahm für rtx20/30 ist weil man zb auf ein fp8 Modell setzt würde es nicht wundern
Ergänzung ()


Du musst auswählen das du Beta Updates installierst, dann bekommst das Update. Die stable kommt erst nächste Woche
FG nutzte auch schon mit DLSS 3 ein neuronales Netzwerk. Der Unterschied zu FG mit DLSS 4 ist, dass die Optical Flow mit DLSS 3 per Hardware-Einheit gemacht haben und mit DLSS 4 per AI.
lmfaktor schrieb:
Das ist eine Aussage, keine Dokumentation.
XeSS 3.0 ist besser als DLSS 6 und Motorola besser als grün. Oder habt ihr jemals erwähnt, dass es so ist, wie es ist und dass, obwohl es die wichtigste Eigenschaft des neuen SDK Paketes darstellen müsste? Ist echt kein Angriff, sondern Wissensdurst!
Das ist schlicht der Grund, warum wir uns länger kein XeSS SR mehr angesehen haben. Sonst nichts.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und MoinWoll
r.Tonemapper.Sharpen=1 ; Slight sharpening of the final output image.

Ist das der richtige Befehl für die engine.ini um UE5 in-engine Sharpening zu deaktivieren?

/edit: Ja, ist es. Hab's gefunden. (z.B. hier)
 
japanology schrieb:
Danke Nvidia, beweist einfach warum AMD keine Option ist wenn selbst die 2000er Reihe noch profitiert. Go green
Jo, ist wirklich ein Wermutstropfen von AMD. Da müssen sie aufholen.
 
Return2Burn schrieb:
Da ich es bei Reddit zuweilen gelesen hatte, konntet ihr Unterschiede beim Stromverbrauch feststellen, sobald DLSS 4.5 eingesetzt wird? Es gab Aussagen, das sich dieser durch den Einsatz der neuen Version erhöht haben soll. Kann aber auch nur ein Gerücht sein.
Wenn man ein FPS Limit hat, geht der Verbrauch natürlich hoch, weil man ja FPS verliert durch 4.5.

Wenn man vorher 150FPS erreichen könnte, sie aber auf 120 limitiert hat und dann mit DLSS 4.5 nur noch 135FPS erreichen könnte, dann hat man nach wie vor seine 120FPS, aber die GPU ist eben stärker ausgelastet.
 
  • Gefällt mir
Reaktionen: Return2Burn
schkai schrieb:
Technisch gesehen sollte FG auch auf den 3000er Karten Problemlos laufen auch wenn vielleicht nicht mit der Leistung wie bei der 4000/5000er Serie. Das wäre ein deutlicherer Mehrwert für die Nutzer als DLSS 4.5.
Die Frage ist aber, wieviel ist der Merhwert wirklich?
Eine 5080 verliert fast 20% Leistung (in RT Titeln) wenn man FGx2 aktiviert. Aus 60FPS wird z.b. 100FPS mit FG, weil die FPS VOR FG auf ~50 sinken. Jedes weitere Zwischenbild braucht nochmal ~5% Leistung.
Wenn eine 3090 z.b. 40% Leistung mit FGx2 verliert, bringt es dann überhaupt was wenn man mit FG von 60FPS auf 72FPS geht, aber dann die Input-Latenz verdoppelt?

Legalev schrieb:
Kein L und kein M zum Auswählen.
Was mach ich verkehrt.
Nvidia APP 5.420
Du musst in der Nvidia App unter Einstellungen/Infos bei Beta ein Haken setzen.
 
  • Gefällt mir
Reaktionen: Legalev
masked__rider schrieb:
Jo, ist wirklich ein Wermutstropfen von AMD. Da müssen sie aufholen.
Ja, das ist wirklich bedauernswert. Der 2060/70/80 User freut sich einen Baum das er mit DLSS 4.5 noch weniger Performance hat als er eh schon hatte. Danke Nvidia für diesen tollen Support!
 
  • Gefällt mir
Reaktionen: MiroPoch, eXe777, Legalev und eine weitere Person
schkai schrieb:
Das wäre ein deutlicherer Mehrwert für die Nutzer als DLSS 4.5.
Sehe ich jetzt überhaupt nicht, sorry. Es gibt mehr Titel die DLSS unterstützen als FG und die allgemeinen Visuals und Qualität pro Frame zu steigern empfinde ich als weit sinnvoller als von 120fps auf 480fps zu kommen. 🤷‍♂️
 
  • Gefällt mir
Reaktionen: Brrr und Quidproquo77
Kann ich bestätigen, der Stromverbrauch geht hoch. Dazu kommen noch etwas höhere Temps und etwas Leistungsverlust (RTX 5080). Irgendwie mag ich das neue M preset im performance mode. Allerdings schon witzig das der Performance mode mit preset M fast genauso viel kostet wie K mit quality. Das nehm ich allerdings in Kauf weil mir besonders die deutlich bessere Schärfe gefällt. Ich hoffe nur das weitere versionen nicht noch mehr performance, Stromverbrauch und temps kosten, sonst verliert DLSS immer mehr das was es für mich ausmacht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Return2Burn, Player49 und JaniC
TheInvisible schrieb:
Eventuell wenn man 64xSSAA drüberbügelt oder halt wie die Animationsfilme wo man ein Bild mehrere Minuten rendert.
SeedVR2. Damit arbeite ich in SwarmUI grad extrem gern. Krass was sich damit erzielen lässt. :D
 
Ich teste jetzt das mal mit Cyberpunk 2077.

System:

AMD B350 (neuestes Bios), Ryzen 5600x, DDR4 16G Ram, 2TB SSD No Name, 5060ti 16G.
5060TI ist ca. 20% overvlocked. Laut Testbenchmark (Cyberpunk 4077) komme ich so auf Leistung einer 4070 RTX.


-----------------------------------------------

Voreinstellung: Overdrive + Qualität der Screen Space Reflection Psycho, Auflösung 4K.
DLSS Automatisch
Nvidia App: Latest


Benchmark: 26,87FPS

---------------------------------------------
Voreinstellung: Overdrive + Qualität der Screen Space Reflection Psycho, Auflösung 4K.
DLSS Ultra Performance
Nvidia App: J

Benchmark: 44,78FPS

--------------------------------------------
Voreinstellung: Low + Auflösung 4K.
DLSS Automatisch
Nvidia App: Neuste

Benchmark: 87.81

--------------------------------------------


Voreinstellung: Low + Auflösung 4K.
DLSS Ultra Performance
Nvidia App: J

Benchmark: 119 FPS

--------------------------------------------
Voreinstellung: Overdrive + Qualität der Screen Space Reflection Psycho, Auflösung 4K.
DLSS Ultra Performance
Nvidia App: M

Benchmark: 44,60
Voreinstellung: Low + Auflösung 4K.
DLSS Ultra Performance
Nvidia App: M

Benchmark: 118 FPS

--------------------------------------------

Mein persönliches Fazit:

M sieht eundeutig besser aus als J.

Da ich aber eh 4k60 @ low Settings und DLSS Ultra Performce zocke (Mir reicht Low heut zu Tage komplett aus) werde ich in Zukunft DLSS 4.5 M nehmen....
 
Zuletzt bearbeitet: (Nvidia App M Test + Fazit hinzugefügt)
Sowas will man doch sehen, oder? 🤣🤣
Zum Glück wird jetzt die 3060 "neu aufgelegt" und DLSS 4.5 läuft darauf richtig schlecht! 👍
 
  • Gefällt mir
Reaktionen: Legalev
Ich habe jetzt bei Jedi Survivor sogar noch FG zu M+P hinzugenommen. Wenn man nicht im Pixelzählmodus (also testen, vergleichen usw.) ist sondern dann wieder normal zockt, sieht das in der Action (und auch beim Innehalten und Screenshots machen) super gut aus (as in ich merke keinen wirklichen Unterschied zu FG aus) und ich bin im Framelimit (158). Geil!

Bin aber auch momentan auf dem Mond ohne Vegetation. Mal sehen, wie es auf Koboh dann ist, vielleicht dann wieder FG aus.
 
Quitschie schrieb:
Ich teste jetzt das mal mit Cyberpunk 2077.
Was für eine Aussagekraft soll den der Vergleich haben, wenn du DLSS auf Automatisch stellst? Da wird ne komplett dynamsiche Auflösungsskalierung benutzt
 
Mimir schrieb:
Dann schalt mal im Nvidia Treiber das GPU scaling aus und stelle auf Display scaling um. Da wird halt hächstwahrscheinlich der NIS upscaler aktiv werden.
Sehr guter Hinweis. Der war in der Tat noch aktiv, weiß der Geier wieso. War mir sicher, den mal abgeschaltet zu haben.

Ohne verschwindet dann auch die Überschärfung bei WQHD Eingangsauflösung.

Also, Danke explizit für diesen Hinweis.
Mimir schrieb:
Warum testet ihr überhaupt 1440p auf 4K screens?
Ich nicht. Umgekehrt. Ich nutze in Games 4K per DLDSR auf einem WQHD-Screen, solange die GPU-Leistung ausreicht.
 
  • Gefällt mir
Reaktionen: ShowOff
theGucky schrieb:
Die Frage ist aber, wieviel ist der Merhwert wirklich?
Eine 5080 verliert fast 20% Leistung (in RT Titeln) wenn man FGx2 aktiviert. (Aus 60FPS wird z.b. 100FPS mit FG) Jedes weitere Zwischenbild braucht nochmal ~5% Leistung.
Wenn eine 3090 z.b. 40% Leistung mit FGx2 verliert, bringt es dann überhaupt was wenn man mit FG von 60FPS auf 72FPS geht, aber dann die Input-Latenz verdoppelt?
Ich denke das dieser schon gegeben ist. Zumal seit DLSS 4 das FG noch weiter Optimiert wurde. Ich behelfe mir zB in Cyberpunkt mit dem dlssg-to-fsr3 mod, hier habe ich ohne FG zwischen 70 und 80 FPS, mit FG 130 - 140 FPS. Das Gameplay ist damit deutlich besser und dank Nvidia Reflex kein nennenswerter Input lag. Das Gameplay ist spürbar besser.
 
recall schrieb:
Allerdings schon witzig das der Performance mode mit preset M fast genauso viel kostet wie K mit quality.
Das kommt stark auf das Spiel, die Zielauflösung, die GPU und die verwendeten Settings an. Im Cyberpunk-Benchmark habe ich z. B. mit einer 5090 in 4K auf max. Settings inkl. PT mit DLSS Performance Preset M 93 FPS und mit DLSS Quality Preset K nur 64 FPS.
 
ThirdLife schrieb:
Sehe ich jetzt überhaupt nicht, sorry. Es gibt mehr Titel die DLSS unterstützen als FG und die allgemeinen Visuals und Qualität pro Frame zu steigern empfinde ich als weit sinnvoller als von 120fps auf 480fps zu kommen. 🤷‍♂️
Also siehst du in weniger Perfomance einen Mehrwert aber in mehr nicht? Bei einer 3080 komme ich dank dem dlssg-to-fsr3 mod bei Cypberpunk auf 130 - 140 FPS anstelle von 70 - 80 FPS und habe dadurch ein deutlich besseres Gameplay. Und neue Games haben so gut wie immer Framegeneration. Ich weiß nicht wo man da keinen Mehrwert sehen kann?
 
@schkai Mir scheint du missverstehst die Technologie. Du bekommst absolut gar kein "besseres Gameplay". Dein Input-Lag ohne Reflex wäre sogar schlechter geworden. Und ohne FG und mit Reflex wärs noch besser. Du bekommst schlechteres Gameplay aber optisch smoothere Bilder.

DLSS hingegen gibt dir tatsächlich besseres Gameplay und mehr Performance. Wenn deine argumentative Schiene also lautet "ich will besseres Gameplay", dann wäre DLSS wertvoller als FG. :daumen:
 
  • Gefällt mir
Reaktionen: Brrr
schkai schrieb:
Ja, das ist wirklich bedauernswert. Der 2060/70/80 User freut sich einen Baum das er mit DLSS 4.5 noch weniger Performance hat als er eh schon hatte. Danke Nvidia für diesen tollen Support.

Aber aber... dafür hat man ne bessere Bildqualität. ;)
 
  • Gefällt mir
Reaktionen: YulawZ1
Zurück
Oben