Test Nvidia DLSS 4.5 (SR) im Test: Analysen & Benchmarks auf RTX 5000, 4000, 3000 & 2000

Wolfgang schrieb:
Zu dem zweiten Punkt. Gute Frage. Ein paar Gedanken dazu habe ich mir auch schon gemacht. Im Moment tendiere ich dazu, erstmal beim Preset K zu bleiben. Aber sicher bin ich mir da noch nicht. Der Nutzen von Preset M ist halt ziemlich spieleabhängig.
Ja ist sicher nicht einfach, wenigstens seid ihr quasi die einzigen die sich darüber Gedanken machen.

Noch "witziger" wird es ja wenn die Spieleentwickler DLSS4.5 nativ integrieren, dort soll dann ja für DLSS-Q/B K als default aktiv sein und für DLSS-P aber M bzw für DLSS-UP L. :D
 
Das kommt aber auch mit einem Nachteil daher, denn das Strohdach ist mit DLSS 4.5 unschärfer geworden und zeigt weniger Details. Darüber hinaus wird die Vegetation auf mittlerer und größerer Entfernung mit DLSS 4.5 nicht mehr so gut ausgearbeitet wie mit DLSS 4 und vermatscht ein wenig. Als Ausgleich ist die Vegetation aber stabiler als zuvor und flimmert bei größerer Sichtweite weniger.
Das gefällt mir eher weniger. Ich bin wohl was Flimmern angeht nicht wirklich empfindlich, zumindest fällt es mir eigentlich nie auf. Aber was ich gar nicht mag, ist Matsch und Unschärfe.

Ich hab mich nie besonders damit befasst, aber kann man dann später auch wieder auf 4.0 umstellen, wenn die 4.5 im Spiel implementiert haben?
 
  • Gefällt mir
Reaktionen: Brrr
Return2Burn schrieb:
Denke die meisten NVidia-Nutzer checken das sowieso so nicht, wie auch bei AMD-Nutzern...weil die maximal noch nen Treiber aktualisieren und irgendwo mal gehört haben DLSS/FSR ist gut...und mit allen anderen Einstellungen völlig überfordert sind.

Kenne das auch aus dem Freundeskreis. Wenn ich da frage ob ich Jemand Upscaler, FrameGeneration, MFG, HDR oder ähnliches nutzt... könnt ich auch chinesisch quatschen. Versteht keiner. DLSS/FSR an... das ist so die Basisinfo, mit der die meisten noch was anfangen können. Das es hier noch Presets gibt...interessiert die gar nicht.
Bin da absolut bei dir und unterstreiche das.

Hab meine Freundesgruppe mit denen wir zu acht alle 3-4 Monate mal eine kleine LAN veranstalten. Tatsächliche wieder ab heute nachmittag bis morgen :D

Jedenfalls haben die meisten (6) eine AMD GPU und davon 2 eine NV Karte. Davon kennen 2 ein paar Details zu FSR/DLSS....die anderen juckt es nicht und haben auch kein Bock da was einzustellen. Dann noch pro Spiel, dann pro Preset, dann FG, MFG, RR, RT und sonst was....viel zu viel. Die wollen zocken und gut ist. Und zwar nativ und mit den Detailpresets ingame. :D
Ist leider die Realität.

Das ist mal wieder diese CB Bubble oder generell Menschen, die in Foren angemeldet sind. Wesentlich HW affiner als der Durchschnittszocker.
Meine LAN Freunde sind allesamt NICHT bei CB angemeldet oder sonstigen HW Foren. Juckt die einfach nicht.
 
  • Gefällt mir
Reaktionen: GERmaximus, derMutant, Inxession und 13 andere
Ich wünsche mir Grafikeinstellungen, die sich selbst passend zu den Spielen und der Hardware einrichten.
Allenfalls noch das gute alte niedrig/mittlere/hohe Qualität (verbunden mit entsprechender Reduzierung der FPS).
Mehr brauche ich nicht, der Rest darf sich gerne von alleine optimieren.
Aber da bin ich vermutlich hier im Forum ein Exot, bei der Gesamtspielerbetrachtung wahrscheinlich aber voll im Durchschnitt.
:)
Ach, das steht so ja genau im Post davor @danyundsahne
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Return2Burn
phanter schrieb:
DLSS 4.5 Quality 1080p langsamer ist als nativ.
Muss man halt immer abwägen zudem braucht man auch immer weniger Input Pixel. Am Notebook mit 2560x1600 verwende ich zb auch gerne P, vor allem seit 4.5 sieht es ziemlich gut aus, auch dank hoher ppi, ist aber auch eine Blackwell.
 
HAse_ONE schrieb:
Ich hab mich nie besonders damit befasst, aber kann man dann später auch wieder auf 4.0 umstellen, wenn die 4.5 im Spiel implementiert haben?
Wenn du willst, kannst du auch bei einer nativen DLSS-4-Integration im Spiel per Treibermenü wieder DLSS 3 forcieren :D Sprich, ja, das wird problemlos gehen.
 
Vigilant schrieb:
Praktisch vier, wenn der ProfileInspector genutzt wird.
nutze es nur noch mit dem alten Nvidia Control Panel. Die neue Nvidia App kann mir gestohlen bleiben.
Außerdem wird der alte Treiber IMMER per DDU abgelöst und der neue mit NVCleanstall draufgepackt, wo man alle Treiber immer zur Auswahl hat und wo man vor der Installation Telemetrie-Daten usw, die an Nvidia gesendet werden, ausschalten kann, was dafür sorgen kann 1% Lows zu verbessern, da kein Datentransfer im Hintergrund stattfindet.

Erfahrung bisher: :daumen:
 
  • Gefällt mir
Reaktionen: Vigilant
Return2Burn schrieb:
Denke die meisten NVidia-Nutzer checken das sowieso so nicht, wie auch bei AMD-Nutzern...weil die maximal noch nen Treiber aktualisieren und irgendwo mal gehört haben DLSS/FSR ist gut...und mit allen anderen Einstellungen völlig überfordert sind.
Zumindest bei Nvidia gibt es da die Spieleoptimierung die gezielt Settings setzt für die verbaute Grafikkarte und daher auch DLSS/FG usw aktiviert, wenn man es entsprechend einstellt wird das auch automatisch für jedes neue Spiel gemacht. Haben mehr aktiviert als man denkt
Ergänzung ()

SIR_Thomas_TMC schrieb:
Ich wünsche mir Grafikeinstellingen, die sich selbst passend zu den Spielen und der Hardware einrichten.
Allenfalls noch das gute alte niedrig/mittlere/hohe Qualität (verbunden mit entsprechender Reduzierung der FPS).
Mehr brauche ich nicht, der Rest darf sich gerne von alleine optimieren.
Aber da bin ich vermutlich hier im Forum ein Exot, bei der Gesamtspielerbetrachtung wahrscheinlich aber voll im Durchschnitt.
:)
Ach, das steht so ja genau im Post davor @danyundsahne
Die Nvidia App bietet das, einfach auf "Optimierung" fürs Spieleprofil klicken oder automatische Optimierung einstellen und es wird alles abhängig der Hardware gesetzt inkl Upscaling, FG usw Gibt sogar einen Slider wo man mehr Performance oder mehr Qualität einstellen kann
 
  • Gefällt mir
Reaktionen: derMutant, Snapuman und SIR_Thomas_TMC
@Wolfgang
Wie steht denn mittlerweile RDNA3 mit FSR3 da im Vergleich zu den neuen Upscalern?
Bzw wie wirst du sie in Zukunft benchen? Mit XeSS oder FSR-Nativ/TAA nativ
 
  • Gefällt mir
Reaktionen: rumpeLson
Mir war M verglichen zu K in einem Kurztest mit DLAA 4K zu "crunchy", an manchen Modelkanten oder hochfrequenten Texturen war wesentlich mehr pixel crawling zu sehen (ähnlich wie aliasing oder halt shimmering, wenn mans genauer benennen will).
Dass mehr Texturdetails rausgeholt werden ist ja nicht schlecht, aber es ist schon etwas zu viel des sharpness-Guten im Gesamtbild (und ja, ig-sharpen war aus).
 
paganini schrieb:
Auch wenn es auf alten Karten mit FPS einbüßen läuft. Das sogar eine 2000er Reihe 4.5 bekommt ist vorbildlich!
Grundsätzlich absolut bei Dir. Meine RTX2700 stürzt dabei aber ab :)

Ich vermute, dass Verhalten hängt mit dem Energieverbrauch zusammen. Wenn die GraKa unter Volllast ist, scheint die Strom/Spannungsversorgung in meinem Schenker XMG Notebook nicht ausreichend zu sein.

Ist aber trotzdem schön zu sehen, dass die Karte noch versorgt wird und das Problem wird ja nicht alle Karten betreffen.
 
@TheInvisible Ich kenne die Spieloptimierung von Nvidia und habe die bei meiner alten RTX3070 auch getestet, hat mich persönlich nicht überzeugt. Habe da jedes Mal die Einstellungen selber noch angepasst, weil entweder Leistung verschenkt wurde oder es geruckelt hat, wie die Hölle.

Es ist lobenswert, das Nvidia da etwas anbietet und hilft sicher dem ein oder anderen, aber ich fands nicht optimal. Denke da ist sowohl bei den Spiele, Betriebssystem und Hardwareherstellern noch sehr viel Luft nach oben um eine DAU-freundlichere Lösung zu entwickeln.

Es ist mittlerweile sicher auch Meckern auf hohem Niveau und ja Nvidia ist da sicher weiter, aber es nützen die besten Featuresets nichts, wenn die meisten Gamer...nicht ITler und Enthusiasten gar nicht verstehen, was die machen und wie man sie am besten einstellt. Für die breite Masse wäre hier mehr Automatismus einfach zielführender.
 
  • Gefällt mir
Reaktionen: SweetOhm, Andre83hro und SIR_Thomas_TMC
Wolfgang schrieb:
Avatar nutzt mittlerweile Ray Reconstruction, da ist dann wieder alles anders als mit DLSS SR. Vielleicht hast du da deswegen nichts gesehen. Oder Avatar ist eines der wenigen Ausnahmen, wo das Wasser mit DLS 4 gut aussieht.
Ja, das ist möglich. Zudem wird mit Ray Reconstruction auch das Preset wieder umgestellt (D), obwohl M forciert. Keine Ahnung, ob Anzeigefehler oder anderes...
 
Return2Burn schrieb:
Ich wollte mich auch einfach mal am klassischen Lagerbashen beteiligen 😌 Aktuell mal bei Team Rot, in 2 Jahren dann eventuell wieder Team Grün...oder vielleicht blau?

Bei einigen Beiträgen aus den Threads zum Thema klang es aber schon eher nach Gefrickel😅

Denke die meisten NVidia-Nutzer checken das sowieso so nicht, wie auch bei AMD-Nutzern...weil die maximal noch nen Treiber aktualisieren und irgendwo mal gehört haben DLSS/FSR ist gut...und mit allen anderen Einstellungen völlig überfordert sind.

Kenne das auch aus dem Freundeskreis. Wenn ich da frage ob ich Jemand Upscaler, FrameGeneration, MFG, HDR oder ähnliches nutzt... könnt ich auch chinesisch quatschen. Versteht keiner. DLSS/FSR an... das ist so die Basisinfo, mit der die meisten noch was anfangen können. Das es hier noch Presets gibt...interessiert die gar nicht.

Das muss sie auch nicht. Wer interessiert daran ist kann den override einfach global in der Nvidia App einstellen und wer nichts davon weiß oder wissen will, der wird das neue Model künftig in Spielen dann automatisch bekommen (siehe unten). Nvidia hat ja das SDK bereits veröffentlicht. Bestehende Spiele werden geupdated und spätestens neue Spiele werden das neue SDK und somit das neue Model von Haus aus mitbringen.


cvzone schrieb:
Bei mir haben die Spiele dann trotz der ganz aktuellen DLL oft nur das Modell K verwendet.

Wenn du einfach nur die neue DLL in den Spieleordner wirfst, so wie es DLSS Swapper macht, dann bekommst du für DLAA, Quality und Balanced das Model K, bei Performance das Model M und bei Ultra Performance das Model L.

So schreibt es Nvidia auch als Empfehlung in die Entwickler guidelines, weil sie das für den momentan sinnvollsten Kompromiss aus performance und Bildqualität bei den aktuellen GPUs halten. Aber Nvidia sagt auch, dass alle neuen Models gut mit jeder Qualitätsstufe funktionieren. Aber für irgend was mussten sie sich ja entscheiden und ausnahmslos allen per default das neue leistungshungrigere Model aufzudrücken ist vielleicht auch nicht die schlaueste Entscheidung, deswegen schaltet man es standardmäßig erstmal nur beim Performance und Ultra performance Modus aktiv.

Aber wenn du eh schon weißt dass es diese Presets gibt und du gezielt eines auswählen willst, warum schlägst du dich mit manuellen dll Datei austausch oder inofffiziellen drittanbieter tools wie DLSS Swapper herum, wenn du das in der Nvidia Treiber App auch mit einem Klick machen kannst und somit nicht von den default einstellungen in der dll Datei abhängig bist?
 
  • Gefällt mir
Reaktionen: Quidproquo77
Mittlerweile bin ich an dem Punk angekommen, dass ich beim normalen Spielen kaum noch Unterschiede zwischen den einzelnen Versionen sehe. Klar, wenn man spezifisch Pixel-Peeping nebeneinander betreibt und nach Unterschieden sucht, wird man sie finden, aber so spiele ich in der Praxis nicht. Wenn die neuen Modelle immer mehr rechenintensiver werden, dann werde ich wohl bei älteren Modellen bleiben. Für mich hat auch schon DLSS 2.X getaugt. Schön ist, dass einem Nvidia wenigstens entspannt die Wahl über die Nvidia App lässt, welche Modelle man nutzen möchte. Da kann dann jeder für sich selbst entscheiden.
 
  • Gefällt mir
Reaktionen: edenjung und DerSnake
Return2Burn schrieb:
Für die breite Masse wäre hier mehr Automatismus einfach zielführender.
Ist halt schwer hier einen Mittelweg zu finden, hier im Forum ist diese Spieleoptimierung zb sehr verpöhnt, auch ich würde sie so nie nutzen. Ist halt immer schwer das zielgenau zu treffen weil es tausende hardware-kombinationen gibt, es bietet aber meistens eine gute Ausgangssituation
 
Interessant aus Nvidia programming guide:
Screenshot 2026-01-09 104113.png


Innerhalb der einzelnen Generationen scheint es ganz gut mit der FP16/FP8 Leistung zu skalieren.
Das heißt eine RTX 2060 kann 4k Preset L mit 50 FPS rechnen. Natürlich dann ohne ein Spiel zu rendern, also 100% der Leistung wird nur für das Transformer Model benutzt.

Hat man als ziel 60 FPS, also 16.6ms render budget, nehmen die neuen Modelle schon einen sehr signifikanten Anteil davon in Anspruch.
 
Vigilant schrieb:
Ja, das ist möglich. Zudem wird mit Ray Reconstruction auch das Preset wieder umgestellt (D), obwohl M forciert. Keine Ahnung, ob Anzeigefehler oder anderes...
Wenn du RR einschaltest wird immer das RR Preset genommen, L und M sind nur normale Presets. Da es kein Update für das RR-preset gab hat sich hier auch nichts geändert.
 
  • Gefällt mir
Reaktionen: Vigilant
Puhh also inzwischen finde ich das doch echt interessant. Bin zwar eigentlich ein freund von AMD aber die ganzen features bei Nvidia klingen schon sehr verlockend. Mal schauen wann AMD da mithalten kann
 
  • Gefällt mir
Reaktionen: derMutant
@cvzone interessant, dann ist der Weg über den Inspector oder über nVidia selber dann doch der, der auch funktioniert.
Da frag ich mich natürlich, woran macht der Treiber es dann fest, welches Modell in einem Spiel verwendet wird, wenn nicht an den DLSS-Dateien im Verzeichnis?
 
Zurück
Oben