Test Nvidia DLSS 4.5 (SR) im Test: Analysen & Benchmarks auf RTX 5000, 4000, 3000 & 2000

Gullveig schrieb:
@Volker
Vielen Dank für die Korrektur! Ich dachte, dass die DLSS Settings vergleichbar zwischen PC und Switch 2 wären.

Aber auch ohne jetzt auf die Handhelds eingehend und auf dem PC verbleibend, sieht es so aus, als ob Nvidia AMD grafisch weiter enteilt. Was wohl bedeutet, dass Nvidia aktuell grafisch gleichzusetzen mit einer Nummer stärkeren AMD Karte ist.
Ich bin nicht Volker - aber das ist ja irgendwie ein kleiner Running-Gag geworden :D

Nein, das DLSS auf der Switch 2 hat mit dem PC-DLSS nichts zu tun. Also mit DLSS 4.5 nicht, mit DLSS 4 nicht und auch mit DLSS 3 nicht. Dort läuft eine Custom-Lösung, die ein deutlich leichteres AI-Modell nutzt, was entsprechend Nachteile im Vergleich hat.

Das Problem was AMD glaube ich primär im Moment hat, dass sie an verschiedenen Baustellen wie verrückt aufholen müssen. Nvidia hat bei absolut allem, Super Resolution mit AI, Frame Gen mit AI, Ray Reconstruction mit AI einen großen, zeitlichen Rückstand. Nvidia hat auch Jahre, einige Jahre gebraucht bis DLSS so gut geworden ist wie es ist. AMD steht mit FSR AI ja erst am Anfang, Super Resolution ist noch nichtmals ein Jahr alt. Ich vermute, dass das AMDs Hauptproblem im Moment ist.
 
  • Gefällt mir
Reaktionen: Jan und KuroSamurai117
Für einige vielleicht auch interessant
https://github.com/NVIDIA/DLSS/blob/main/doc/DLSS_Programming_Guide_Release.pdf

IMG_20260109_142449.jpg
 
Quidproquo77 schrieb:
Nvidia setzt für FG auf ein AI Model, das würde auf Turing und auch auf Ampere laufen.
Wurde auch im Interview bestätigt. Gut, auf Ampere und Turing lässt sich immerhin AMDs FSR-FG bzw. Losless Scaling + Reflex nutzen, trotzdem unverständlich.
Naja, "würde laufen" und "würde gut laufen" sind dann halt auch zwei Paar Stiefel. Ich kann auch in der F1 mitfahren, aber würde ich gut abschneiden ? Nur weil etwas theoretisch irgendwie möglich ist muss es noch lange nicht gut sein. 🤷‍♂️

FG war als Verkaufsargument bei mir zumindest für RTX4000 überhaupt nicht nötig. 80%+ Mehrleistung ggü. meiner 3080 Ti waren da völlig ausreichend.🤣
 
neofelis schrieb:
Wenn man den Test so liest, bekomme ich den Eindruck, als wenn DLSS wirklich der letzte Mist ist.
Dabei nutze ich es regelmäßig und wo es nur geht und mir fallen selten schlimme Grafikfehler auf.

Wieso wird von CB nicht DLSS Quality getestet, wenn man denn mit Adleraugen auf die Bildqualität schaut?
Außerdem ist Quality der mit großem(!) Abstand beliebteste Modus.
Im August 2023 haben bei PCGH 86% der Umfrageteilnehmer (720) angegeben den Qualitymodus zu nutzen.
Performance lag da unter 2%. Ist das dann eigentlich nicht schon fast überflüssig?
Oder verhalten sich die DLSS-Varianten am Ende doch sehr ähnlich, was die krassen Grafikfehler angeht? :confused_alt:
Wir sind halt schon auf einen hohen Niveau und CB wird hier sicher die schwierigen Situationen suchen. Aber was ist schon perfekt, taa ist es nicht und nativ ohne jegliches AA auch nicht.

Eventuell wenn man 64xSSAA drüberbügelt oder halt wie die Animationsfilme wo man ein Bild mehrere Minuten rendert.

Man muss halt schon realistisch bleiben und nach eigenen Tests liefert dlss-p wirklich gute Ergebnisse.
 
serve1chilled schrieb:
Sehe ich es richtig, dass L Ultra Performance schärfer als K Performance ist?

So wirkt es jedenfalls an der weiter entfernten Vegetation.
Ja, richtig. L Ultra Performance scheint generell überraschend gut zu sein in 4k (720p upscaled).
Auch das Mixen dann von Pathtracing und co könnte damit noch ordentlich mehr Performance rauszuholen zu sein, weil es vieeeeel weniger zu berechnen hat.

Ich habe noch nicht all zu viel testing gemacht, aber in den 3-4 Spielen DLSS L Ultra Performance scheint nicht all zu schlecht zu sein. Echt krass wie gut dort DLSS geworden ist. Vor 2 Jahren mussten wir noch mit DLSS 3 Quality nutzen (67% render) und nun sieht Ultra Performance einiges besser aus als DLSS 3 Quality.
 
  • Gefällt mir
Reaktionen: serve1chilled
Nolag schrieb:
Die Screenshots werden von J bis M immer schärfer und bei M ist es dann einfach für mein Gehirn mit der Glaubwürdigkeit vorbei. Das ist in WQHD für mich bisher bei allen Games so, die ich getestet habe.
Ah, so hast du das gemeint. Ja, kann ich bestätigen. In WQHD gibt es zumindest auch in Cyberpunk ein Problem mit Überschärfung. Der Witz ist aber, ich kann es auf den Screenshots nicht sehen. Jedenfalls nicht per Afterburner-Screenshot.

WQHD - Schärfe 0
1767966169272.jpeg

4K - Schärfe 0
1767966192702.jpeg
 
Wolfgang schrieb:
Das Problem was AMD glaube ich primär im Moment hat, dass sie an verschiedenen Baustellen wie verrückt aufholen müssen.
AMD bräuchte mal pathtracing Games für Redstone, für was hat man das sonst entwickelt? Nvidia hat schon wieder neue angekündigt und ich hatte gedacht AMD macht zur CES auch Mal was
 
ThirdLife schrieb:
Naja, "würde laufen" und "würde gut laufen" sind dann halt auch zwei Paar Stiefel. Ich kann auch in der F1 mitfahren, aber würde ich gut abschneiden ? Nur weil etwas theoretisch irgendwie möglich ist muss es noch lange nicht gut sein. 🤷‍♂️

FG war als Verkaufsargument bei mir zumindest für RTX4000 überhaupt nicht nötig. 80%+ Mehrleistung ggü. meiner 3080 Ti waren da völlig ausreichend.🤣
Laufen würde immer alles überall irgendwie. Am Ende sind es ja nur Rechenoperationen, die immer weiter runter gebrochen werden können. Tatsächlich ist alleinig die ausreichende Performance durch Vorhandensein von dedizierten Recheneinheiten der Punkt. Keiner hätte sich beschweren können, wenn NV gesagt hätte 4.5 läuft nicht ausreichend gut auf 2000er oder 3000er Modellen. Man muss halt immer abwägen, ob es zu Problemen führt oder ob man das Featuer-Set Unique machen möchte (FG bei NV 4000er, FSR 4 bei AMD 9070er). Natürlich darf man das je nach Gusto gut oder schlecht finden. Aber darauf hin Organisationen menschliche Charakterzüge zuzuschieben ist halt gaga.
 
  • Gefällt mir
Reaktionen: ThirdLife
Als neu RTX 5070ti Besitzer habe ich eine Frage an die Kenner hier.
Bei mir schaut das so aus:
Screenshot 2026-01-09 143733.jpg

Kein L und kein M zum Auswählen.
Was mach ich verkehrt.
Nvidia APP 5.420

Danke euch
 
No_Toxic_Gamer schrieb:
Wenn man sich als seröse Publikation selbst abschaffen möchte und mit dem negativen Nachhall und den daraus resultierenden verringerten Aufrufzahlen fein ist kann man das sicher machen.
für mich würde sich die Seriosität damit sogar steigern da man sich
1. von Toten Ballast befreit... FSR3 ist legacy und somit auch RDNA2/3 was upscaling angeht
2. ein Zeichen in der Internationalen Presse setzt (das hat übrigens RDNA3=TAA nativ auch schon getan)
3. mehr Zeit für Benchmarks hat
4. vielleicht ein umdenken seitens der Hersteller erzeugt dem user selbst die wahl zu lassen ob er etwas nutzt oder nicht, selbst wenn es mit performance verlust einher geht

CB ist zur zeit die letzte offizielle Deutsche vertrauenswürdige Benchmark Seite die über bleibt da kann man das schon machen.
ich sehe den negativen nachhall gegenüber CB nicht.. nur berechtigterweise gegen AMD
Die entscheidung RDNA2/3 nicht mehr zu benchen wäre nur Konsequent.

wir sehen ja auch keine RTX2000/3000 Framegen benches nur weil sie theoretisch FSR (auch wieder nur in der legacy version FSR3) oder lossless scaling benutzen könnten

wenn AMD RDNA2/3 bereits aufgegeben hat warum sollte man es dann weiter mit schleifen?
für die paar leute die wegen fuchtbar falschen Empfehlungen viel Geld in die Hand genommen haben und sowieso jetzt schon gelackmeiert sind?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pro_Bro und Jan
Quidproquo77 schrieb:
Nvidia setzt für FG auf ein AI Model
Aber auch erst seit dlss4, vorher nutze man die dedizierten Hardware. Wenn das zu lahm für rtx20/30 ist weil man zb auf ein fp8 Modell setzt würde es nicht wundern
Ergänzung ()

Legalev schrieb:
Als neu RTX 5070ti Besitzer habe ich eine Frage an die Kenner hier.
Bei mir schaut das so aus:
Anhang anzeigen 1695084
Kein L und kein M zum Auswählen.
Was mach ich verkehrt.
Nvidia APP 5.420

Danke euch
Du musst auswählen das du Beta Updates installierst, dann bekommst das Update. Die stable kommt erst nächste Woche
 
  • Gefällt mir
Reaktionen: Legalev
Ich habe gestern einen ausführlichen Performancetest zu den verschiedenen DLSS Presets (inkl. Preset E aus DLSS 3) mit dem Cyberpunk-Benchmark gemacht. Das Testsystem steht in meiner Signatur.

Settings:
4K Zielauflösung
Alles auf max
Pathracing aktiviert
Ray Reconstruction deaktiviert (da sonst das RR-interne Preset genutzt und das SR-Preset ignoriert wird)

Die Prozentwerte wurden aus den rohen FPS-Werten mit zwei Nachkommastellen berechnet. Anschließend habe ich zur besseren Lesbarkeit sowohl die FPS- als auch die Prozentwerte kaufmännisch auf ganze Zahlen gerundet.

E [FPS]K [FPS]M [FPS]L [FPS]K vs. EM vs. EL vs. EM vs. KL vs. KL vs. M
DLAA:3534323097%92%85%94%87%93%
Quality:6864626095%92%88%97%93%96%
Balanced:8278767496%93%90%97%94%97%
Performance:9994939195%94%92%99%96%98%
Ultra Performance:14213813713697%97%96%100%99%99%

Basierend auf diesen Ergebnissen werde ich in Zukunft Preset M für Quality und Balanced und Preset L für Performance nutzen. DLAA und Ultra Performance verwende ich bisher nicht zum Spielen und nur zum Testen. Ich hoffe, dass Nvidia in Zukunft ermöglicht unterschiedliche Presets je DLSS-Stufe zu forcieren. Außerdem bin ich schon gespannt auf die Bildqualität und Performance von Preset N und O, ich hoffe diese kommen nicht erst im 2. Halbjahr 2027 mit Rubin.

Man sollte beachten, dass die 5090 (in meinem Fall auch noch inkl. UV+OC) die bestmöglichen Voraussetzungen für einen geringen Performanceverlust je Preset hat. Bei kleineren Karten und vor allem Karten vor Lovelace werden die Unterschiede zwischen den Presets moderat bis deutlich größer ausfallen.

Auch bei anderen Spielen könnten die Performanceunterschiede größer sein. Ich habe gestern auch interessehalber mal in Battlefield 6 geschaut, wie sich DLAA mit Preset L ggü. TAA verhält. Mit TAA hatte ich an einer fordernden Stelle 118 FPS und mit DLAA (Preset L) nurnoch 82 FPS. Allerdings war TAA dort auch extrem matschig und DLAA sah aus wie von Downsampling von 6K.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: MariaDocks, Jan, computerfouler und 4 andere
Wolfgang schrieb:
XeSS 1.3 und XeSS 2 sind identisch, was Super Resolution entspricht. Neu bei XeSS 2 ist schlicht Frame Generation. Das ist der Unterschied. Und ausschweigen tun wir uns nicht über XeSS. Der Fokus liegt nur ganz klar auf DLSS und FSR, Intel-GPUs sind einfach viel weniger vertreten auf CB.
Das ist eine Aussage, keine Dokumentation.
XeSS 3.0 ist besser als DLSS 6 und Motorola besser als grün. Oder habt ihr jemals erwähnt, dass es so ist, wie es ist und dass, obwohl es die wichtigste Eigenschaft des neuen SDK Paketes darstellen müsste? Ist echt kein Angriff, sondern Wissensdurst!
 
Zuletzt bearbeitet:
Legalev schrieb:
Als neu RTX 5070ti Besitzer habe ich eine Frage an die Kenner hier.
Bei mir schaut das so aus:
Anhang anzeigen 1695084
Kein L und kein M zum Auswählen.
Was mach ich verkehrt.
Nvidia APP 5.420

Danke euch
Du musst die NVIDIA Beta app installieren. Kannst du in den Settings von der NVIDIA App anmachen
 
  • Gefällt mir
Reaktionen: Legalev
Bin bei Jedi Survivor von K und Quality auf M und Performance gegangen. Mehr fps, Bild super. Finde es auch nicht überschärft in 3440x1440. Ich bin zu faul für ständiges Umschalten und Vergleichen, gerade bei Spielen die etwas brauchen beim Starten, aber subjektiv gefällt mir M+P besser, einfach weil das Game auch jeden Frame mehr gebrauchen kann, mehr fps mitigieren dann doch das Stuttering, wenn auch nicht komplett (ich weiß, ist traversal und shader aber es ist trotzdem erträglicher je höher die fps).
Vegetation ist in UE5 meistens eh für den Arsch, mir reicht das aber so. Gibt ja auch reichlich Level/Locations ohne Gras.
Performance war mit K ja echt unbrauchbar. Ist schon krass jetzt.
Frame Generation experimentiere ich noch, der fps Gewinn ist krass aber irgendwie dann doch gefühlt Ghosting.

Aber wenn man ehrlich ist, merkt man doch in der Action des Spiels da nicht viel von. Vorher war K+Q meine Toleranzgrenze. Die scheint sich mit M tatsächlich auf Performance verschoben zu haben.

Bei Spielen, die so oder so genug fps liefern (für mich 100+) werde ich einfach M+Q benutzen, auch wenn es mehr Leistung braucht als K+Q. M+Q sieht ja teilweise besser aus als nativ. Vegetation in Oblivion z.B. - Schwertrand sieht weiterhin weird aus, auch wenn er hier sagt, dass es besser ist. Sehe ich nicht. Nur Ghosting gone.

(natürlich mit Nvidia Overlay um zu sehen ob es auch alles greift. Tut es.)
 
Zuletzt bearbeitet:
ThirdLife schrieb:
Ne, war auch nicht als Fakt dargestellt sondern Beispielhaft. Brauchst du für alles nen Disclaimer der Sorte "Pack keine Hamster in die Mikrowelle" ? 🤣
Nein, nur sollte man dann nicht solche behaupten reinwerfen. Am ende glauben es die Leute noch. Technisch gesehen sollte FG auch auf den 3000er Karten Problemlos laufen auch wenn vielleicht nicht mit der Leistung wie bei der 4000/5000er Serie. Das wäre ein deutlicherer Mehrwert für die Nutzer als DLSS 4.5.
 
Vigilant schrieb:
Ah, so hast du das gemeint. Ja, kann ich bestätigen. In WQHD gibt es zumindest auch in Cyberpunk ein Problem mit Überschärfung. Der Witz ist aber, ich kann es auf den Screenshots nicht sehen. Jedenfalls nicht per Afterburner-Screenshot.

WQHD - Schärfe 0
Anhang anzeigen 1695085
4K - Schärfe 0
Anhang anzeigen 1695087


Dann schalt mal im Nvidia Treiber das GPU scaling aus und stelle auf Display scaling um. Da wird halt hächstwahrscheinlich der NIS upscaler aktiv werden. Das sieht halt kacke aus. Warum testet ihr überhaupt 1440p auf 4K screens? Logisch, dass dann nochmal ein upscaling step stattfindet, der das bild komplett versaut.
 
  • Gefällt mir
Reaktionen: usmave und Vigilant
Zurück
Oben