News Nvidia DLSS 4.5: MFG 6×, dynamisches MFG und besseres Super Resolution

Ich habe 3 Spiele getestet und einmal 4%, einmal 6% und eimal 11% Leistungsverlust auf meiner 5080.
Ein Kollege mit 5090 hat noch 1-2% weniger Verlust, aber 5-10% kommt gut hin.
Unter Strich würde ich sagen, dass es sich deutlich lohnt, denn Balanced mit M ist ein klein wenig besser als Quality mit K. Teils finde ich es sogar mit Performance grob vergleichbar. Unter Strich braucht man mit einem 4K Monitor kein DLAA, Quality oder Balanced mehr nutzen, das sieht besser aus, der Unterschied ist aber noch geringer als bei Transformer Model 1.

Mit FP4 und Micro Tensor Scaling sollte in Zukunft auch noch mehr drin sein - weitere Versionen werden bestimmt nachgeschoben.
Franknatic schrieb:
Warum haben sie es nicht einfach gelassen wie es war und einfach DLSS Quality Plus eingeführt.
Weil sonst AMD wohl aufgeschlossen wäre. Nun ist Nvidia wieder deutlicher vorne.
 
Zuletzt bearbeitet:
mTw|Marco schrieb:
Ergänzung ()


Juckt bei Singleplayerspielen ja auch so extrem
Ergänzung ()
Naja 3x und er Recht bei 4x merkt man es halt. Was bringen mir denn 500fps in Strategiespielen?
 
@bvbdragon Es gibt Spiele da ist die Technologie sehr gut implementiert und bei manchen weniger gut.

Wer das bestreitet hat vermutlich nie mehr als ein Spiel getestet.

Ich selbst war früher ein Hardcore-Quake3 Spieler für den ein flüssiges Bild alles ist und muss sagen, dass die Technologie bei guter Implementierung absolute Berechtigung hat.

Aber was soll ich sagen, diese Technologie würde es schon lange nicht mehr geben wenn sie derartig schlecht ist wie manche notorischen Bodenstampfer sie reden.
 
Quidproquo77 schrieb:
Weil sonst AMD wohl aufgeschlossen wäre. Nun ist Nvidia wieder deutlicher vorne.
Jain! Ich sehe das als einen gewagten Schritt, weil einige Testmagazine weiter FSR Quality gegen DLSS Quality testen werden und Nvidia so "kürzere Balken" bekommt. Man muss schon Eier in der Hose haben und vom Produkt sehr überzeugt sein, mit dem neuen Profil weniger Leistung zu liefern, egal wie gut die Qualität dadurch ist.

Der "dick move" wäre schlichtweg weniger Qualität mit höherer FPS zu liefern. Die wenigsten würden es merken, man wäre mit einem Update aber plötzlich weiter "vorne". Ich mache aber das Marketing bei Nvidia nicht, die werden schon wissen was sie da tun. ;)
 
  • Gefällt mir
Reaktionen: Quidproquo77
dengeduder89 schrieb:
Edit: also wenn ichs richtige verstehe, sollte ich M gar nicht nuten wenn ich auf 4k quality spiele?
Ich würde bei 4K einfach kein DLSS Quality mehr nutzen, sondern Performance ausprobieren.
Franknatic schrieb:
Das neue Preset ist jetzt M? Und das ist automatisch Standard bei allen Games mit DLSS wenn ich den meine Treiber drauf habe?
Das neue Preset ist nur dann in allen Games aktiv, wenn du es in der Nvidia App erzwingst und es auf der Whitelist von Nvidia steht, oder du alternativ mit einem anderen Programm die Presets wechselst.
 
Ja, das ist sicher gewagt, aber es gibt auch einige Berichte in denen die Leistung nur um 3% gesunken ist, so viele Spiele hab ich bisher nicht testen können. Die Software ist ja Nvidias Steckenpferd und das Eliminieren von Ghosting wird vermutlich noch an anderer Stelle eine Rolle spielen. Aktuell macht es jedenfalls Sinn DLSS 4-5 Balanced gegen FSR4 Quality zu testen, was würde zwar Nvidia weiterhin leicht benachteiligen, da die Qualität besser ist, aber Performance wäre mitunter in einigen Aspekten ( QHD, FHD) optisch schlechter, in 4K womöglich vergleichbar.
 
Quidproquo77 schrieb:
Ja, das ist sicher gewagt, aber es gibt auch einige Berichte in denen die Leistung nur um 3% gesunken ist,
Die 3% sind in diesem Forum schon hart an der Grenze zu "völlig abgehängt" und "nicht zu gebrauchen". ;)
 
xexex schrieb:
Jain! Ich sehe das als einen gewagten Schritt, weil einige Testmagazine weiter FSR Quality gegen DLSS Quality testen werden und Nvidia so "kürzere Balken" bekommt. Man muss schon Eier in der Hose haben und vom Produkt sehr überzeugt sein, mit dem neuen Profil weniger Leistung zu liefern, egal wie gut die Qualität dadurch ist.
Genau deshalb die merkwürdige Empfehlung von Nvidia Preset M nur für Performance zu nutzen. Quality wird standardmäßig weiterhin auf K setzen und die Balken bleiben schön lang^^
 
rumpeLson schrieb:
Genau deshalb die merkwürdige Empfehlung von Nvidia Preset M nur für Performance zu nutzen.
Richtig, an die Entwickler. Nur werden sich weder alle dran halten, noch wird es die Testmagazine davon halten die Werte zu überschreiben. Aber wie gesagt, das wird sich schon jemand so ausgedacht haben.
 
rumpeLson schrieb:
Genau deshalb die merkwürdige Empfehlung von Nvidia Preset M nur für Performance zu nutzen.
Hm. Ich habe nach langer Zeit Ratched und Clank installiert und finde dort liegt Preset M im Performance Modus sogar vor Quality K. :o Das ist schon weird langsam. Die Auflösung scheint teilweise keine Rolle mehr zu spielen, selbst UP sieht noch mega aus. Man sollte langsam aber sicher einen HP "HyperPerformance" Modus einführen.
 
  • Gefällt mir
Reaktionen: DaHell63
Quidproquo77 schrieb:
Hm. Ich habe nach langer Zeit Ratched und Clank installiert und finde dort liegt Preset M im Performance Modus sogar vor Quality K
Der Performance Modus M ist schon klasse.
K Q
bf6_2026_01_08_06_21_47_297.png


M P
bf6_2026_01_08_06_17_02_768.png


Und nochmal ohne DLSS
bf6_2026_01_08_06_53_34_264.png


Mein 160W Setting reicht da nichtmal für 60FPS und sieht m.M.n schlechter aus. Warum sollte man sich sowas antun?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77
Also wird Standard in Spielen immer DLSS4 vorerst verwendet? Auf 4.5 muss definitv manuell eingegriffen werden?

Hab ich die Reihenfolge richtig verstanden:

DLSS4.5 Q = beste Qualität/weniger FPS
DLSS4.5 B = DLSS4 Q leicht bessere Qualität/gleiche FPS
DLSS4.5 P = DLSS4 Q gleiche Qualität/bessere FPS
 
Franknatic schrieb:
Also wird Standard in Spielen immer DLSS4 vorerst verwendet? Auf 4.5 muss definitv manuell eingegriffen werden?
In Spielen sollen sich die Entwickler an folgendem richten:

1767855735645.png

https://github.com/NVIDIA/DLSS/blob/main/doc/DLSS_Programming_Guide_Release.pdf

Die Implementierung liegt aber letztendlich in den Händen der Entwickler, die sollen testen und das für ihre Engine und Anforderungen optimale Preset aussuchen. Es geht nicht nur um Leistung/Qualität/GPU, auch der VRAM Bedarf ist unterschiedlich, vor allem auf älteren Karten.
1767855926311.png

Interessant ist auch die prognostizierte Latenz, die sich wohl direkt auf die FPS auswirken wird. Das dürfte der Grund sein, wieso L/M eher für aktuelle GPUs empfohlen wird.
1767856290006.png

1767856315194.png
 
Zuletzt bearbeitet:
Franknatic schrieb:
Ich verstehe es echt nicht. Also haben wir mit 4.5 Quality weniger FPS aber minimal besseres Bild?
Nicht wirklich. Die Modelle haben jeweils unterschiedliche Stärken und Schwächen, IMO ist der Unterschied zwischen den Modellen mittlerweile wesentlich größer als zwischen den Renderauflösungen, zumindest bei Display/Ausgabeauflösungen, die sich 4k annähern.
Außerdem greift DLSS 4.5 offenbar vor dem Tonemapping der Engine, was ebenfalls Unterschiede ergibt.

Es gibt Spiele, da kann 4k DLSS M-Performance ein überzeugenderes Ergebnis liefern als 4k DLSS K-Quality und umgekehrt.

Falls man überhaupt so tief einsteigen möchte, am Ende ist das Meckern auf hohem Niveau (K hat aber einige Probleme mit Volumetrics oder auch Nanite/Lumen, die M nicht hat). Wenn für dich alles ok war, hindert dich ja niemand einfach bei K zu bleiben.
 
Um das Preset zu wechseln muss ich inGame über das Overlay machen oder im Treiber voreinstellen?
 
Moin
die Nvidia App zieht bei mir kein Update obwohl ich den Haken gesetzt habe.
 
xexex schrieb:
Interessant ist auch die prognostizierte Latenz, die sich wohl direkt auf die FPS auswirken wird. Das dürfte der Grund sein, wieso L/M eher für aktuelle GPUs empfohlen wird.
Anhang anzeigen 1694531
Anhang anzeigen 1694532

Das sind keine "Latenzen" im klassischen Sinne. Das sind ganz normale Renderzeiten. Alles was die GPU berechnet kostet ne bestimmte Zeit, die Frametime. Und diese Zeit bestimmt dann deine FPS.

Wenn ein Frame in nativen 4K z.B. 20 ms lange zum rendern braucht, dann hast du 50 FPS. (1000ms/20ms pro Frame = 50 Frames/s)

Wenn du die interne Renderauflösung jetzt z.B. via DLSS auf 50% (1080p) reduzierst und sich die FPS verdoppeln, dann ist deine Renderzeit von 20ms auf 10ms gesunken.
Wenn dann der DLSS Algorithmus angewendet wird, um diese 1080p auf 4K zu bringen, dann kostet das nochmal so viel Rechenzeit on Top wie in der Tabelle angegeben. Bei der 2080ti würde die Frametime dann von 10ms auf 13,5 ms ansteigen, wenn man das K preset nutzt, man hätte dann 74 FPS.

Würde man auf der 2080ti in dem Beispiel das M Model nutzen, würde die Frametime bei 17,51 ms liegen, also bei 57 FPS. Wie man hier sieht, wäre DLSS Performance Modus mit Preset M in 4K auf der 2080ti ähnlich teuer, wie direkt in nativen 4K zu rendern.

Natürlich wirkt sich die Frametime und die Renderzeit und somit die FPS auf die Latenz des Spiels aus.
Aber man muss hier ganz klar sagen, dass es hier NICHT um Latenzen im Sinne von Frame Generation geht, wo ja immer extra 1 Frame gewartet wird, um dann die zwischenbilder zu erzeugen. Hier geht's rein um Renderzeit und somit direkt um Performance.
 
  • Gefällt mir
Reaktionen: Snapuman, Quidproquo77, xexex und eine weitere Person
Lurtz schrieb:
Das ist ein Postprocessing-Effekt in CP 2077. Betrifft alle UI-Elemente.
Gerade ein Video von der CES gesehen und selbst auf der neuen High Monitor Präsentation sieht man diesen Effekt. Schlimm 😂
IMG_2427.jpeg
 
  • Gefällt mir
Reaktionen: ~Rake~
n4rti schrieb:
Moin
die Nvidia App zieht bei mir kein Update obwohl ich den Haken gesetzt habe.
Sollte so aussehen. Die Version ist auch schon korrekt.
1767869624421.png


Wenn da eine ältere Version steht, mal die App neu öffnen. Normal installiert er die Updates immer nur beim Start der App. Zumindest bei mir.
 
Zuletzt bearbeitet:
Zurück
Oben