Test Nvidia DLSS 4.5 (SR) im Test: Analysen & Benchmarks auf RTX 5000, 4000, 3000 & 2000

japanology schrieb:
Danke Nvidia, beweist einfach warum AMD keine Option ist wenn selbst die 2000er Reihe noch profitiert. Go green
Wo profitieren die alten Gens in der Praxis davon. Wenn der Tester zu dieser Aussage kommt?

"Auf RTX 2000 und RTX 3000 würde ich DLSS 4.5 außer in selektierten Einzelfällen dagegen nicht einsetzen. Dazu fehlt bei den alten Karten einfach die Leistung."
 
  • Gefällt mir
Reaktionen: thom_cat, derMutant, MiroPoch und eine weitere Person
Franknatic schrieb:
Aber in der Praxis ist es ja so, dass jedes Spiel immer das Standard DLSS Verfahren vom Entwickler im Bauch hat. Zum Beispiel bei Stalker 2 DLSS3. Solange man nicht manuell eingreift ist immer das mitgelieferte des Spiels aktiv?
Jupp... Wenn man gar nichts tut, passiert auch nichts, man muss gezielt die Settings überschreiben. Im Profile Inspector sieht man welche Einstellungen wichtig sind.

1767954470446.png


Erster Punkt, DLL Override, wenn der aktiv ist, braucht man die Spielebibliotheken nicht einzeln zu aktualisieren. Zweiter Punkt, damit überschreibt man das Standardpreset vom Spiel.
 
Zuletzt bearbeitet:
@Return2Burn

Vielleicht kommt es ja jetzt durch die Steam Machine und Next Xbox, die ja wahrscheinlich ein Konsole/PC Hybrid ist. Kann es vielleicht auch durchgetestete Voreinstellungen bei PC Games geben wie bei den Konsolen. Man wird da eh Wohnzimmer-Zocker es möglichst einfach machen.

Kann sich also in den nächsten 2 Jahren durchaus etwas verändern.
 
  • Gefällt mir
Reaktionen: Wanderwisser und Return2Burn
xexex schrieb:
Es gibt nicht ohne Grund im DLSS Swapper die Einstellung für das gewünschte Profil.
Ja, und es gibt auch nicht ohne Grund den Hinweis im DLSS Swapper, dass dies je nach Spiel einfach ignoriert wird und das Standardprofil der DLL genutzt wird, was scheinbar immer noch K zu sein scheint für 310.5. ;) (steht unter den globalen Einstellungen des DLSS Swapper bei der globalen Modellauswahl)

Es gibt Spiele, welche die "use latest version" nicht unterstützen. Hier wird die Option aus dem Treiber dann ausgegraut und einfach nicht angewendet, auch wenn es unter Global eingestellt ist.
 
Deeen schrieb:
Wieso leider? Ich kenne mich mit den Sachen aus, habe aber gar kein Bock pro Spiel da rumzufriemeln bis es passt. Es soll laufen. :)
Ja, weils halt die Mehrheit nicht juckt was es an Möglichkeiten gibt. Also "leider" aus Sicht der Hersteller :D

Man könnte ja sagen, dass AMD/Intel/NV das alles für nur - sagen wir mal hypothetisch - 20-30% der Gamer entwickelt :D Für die Nerds eben unter uns. Aber die sind eben die, die die Marke dann auch "vertreiben".

Alleine die Mundpropaganda und die Empfehlungen der Leute, die sich auskennen an die, die sich nicht auskennen, geben das natürlich weiter und sagen, "Ja, NV sind die schnellsten, besten, mit den meisten Features, kauf die". Oder eben andersrum, wenn es halt heißt "AMD hat das bessere P/L" oder so.

Danach kaufen ja auch die allermeisten. Marketing der Marken eben.
Da das NV eh besser macht als AMD ist auch klar wer die Marktherrschaft hat :D
 
Was ist mit XeSS 1.3 vs XeSS 2? Ist es eins und dasgleiche? DLSS ist doch ausschliesslich für Nvidia Besitzer von Relevanz. XeSS ist jedoch universell und funktioniert mit allen Karten.
Hätte ich einfach gern gewusst. Warum schweigt man sich darüber aus.
 
Blackfirehawk schrieb:
Wäre die traurige Konsequenz die darauf folgt nicht eigentlich das man RDNA2+3 Karten aus den Benchmarks raus schmeißt wegen nicht mehr vergleichbar(faulender Arm abhacken und so)

Ich weis klingt jetzt vielleicht hart.. aber sehe ich langfristig als einzig sinnvolle Maßnahme was Vergleichbarkeit angeht
Das kann man aber schlicht nicht bringen. Denn dann gehen RDNA 2/3 Nutzer auf andere Publikationen um ihre GPUs zu vergleichen, weil sie diese hier nicht mehr getestet bekommen.
 
  • Gefällt mir
Reaktionen: Wanderwisser
japanology schrieb:
Danke Nvidia, beweist einfach warum AMD keine Option ist wenn selbst die 2000er Reihe noch profitiert. Go green
•Hust• Frame Generation •Hust•
 
  • Gefällt mir
Reaktionen: derMutant und schkai
Gestern mal nur Diablo 4 ausprobiert, und habe mit dem neuen Treiber und DLSS 4.5 auf einmal Framedrops die ich mit 591.59 nicht habe (Upsampling Modell immer auf Neuestes, Framegen aus, Upsampling Quality oder DLAA). Bin danach gleich wieder auf den alten Treiber zurück gegangen.

So wie ich Diablo 4 kenne, tippe ich aber dass die Probleme eher mit dem neuen Treiber und nicht direkt mit DLSS 4.5 zu tun haben 😃
 
Sebbo_Essen schrieb:
Hallo @Wolfgang , zunächst vielen Dank für den sehr informativen Test. Eine Frage an dich hätte ich: Ich spiele mit einem 9800X3D und einer 5090, zur Zeit Anno 117, Hogwards Legacy (ohne RayTracing, dazu gleich noch eine Frage), FF7 Rebirth und Fortnite. Wenn du dich ein ein Preset festlegen müsstest, quasi set and forget: Preset M oder Preset K? Und Quality oder Balanced? Bei jedem Spiel individuel zu wechseln ist nichts für mich😄

Dann noch abschliessend: Auch mit RayReconstruction flackert das RayTracing bei HL bei mir bis zum geht nicht mehr; es macht es sogar noch schlimmer. War es tatsächlich bei dir so, dass RR das Flackern mit Raytracing bei dir behoben hat?
Ich musste Raytracing abschalten um HL spielen zu können.
Mit einer 5090...gehe auf Preset M und gut ist. Das ist potenziell die beste Bildqualität und Leistung hat man ja durchaus ganz gut :D Wenn man nie etwas anderes einstellen möchte, einfach "latest" in der Nvidia-App auswählen und gut ist.

Welches Flackern meinst du jetzt genau mit DLSS RR? Und welches Spiel meinst du mit HL? Ich stehe auf dem Schlauch...denke dauern an Half-Life, aber das kann es ja leider nicht sein^^
mdf/markus schrieb:
Wie verhält es sich mit den Profilen eigentlich in Spielen, die DLSS Modi ingame zur Auswahl haben?
Wenn ich global das aktuellste Preset wähle, wird dann mein ingame Setting (zB in Cyberpunk/KCD2) immer ignoriert/overruled?
Der Treiber überschreibt immer, was du im Spiel eingestellt hast. Hast du also zum Beispiel im Treiber "latest" eingestellt, sagst aber im Spiel "nutze das alte CNN-Modell" und damit DLSS 3, wird trotzdem Preset M genutzt.
Blackfirehawk schrieb:
Da gebe ich dir absolut Recht..
Aber wie willst du sie denn in Benchmarks dann noch vergleichen?

Wäre die traurige Konsequenz die darauf folgt nicht eigentlich das man RDNA2+3 Karten aus den Benchmarks raus schmeißt wegen nicht mehr vergleichbar(faulender Arm abhacken und so)

Ich weis klingt jetzt vielleicht hart.. aber sehe ich langfristig als einzig sinnvolle Maßnahme was Vergleichbarkeit angeht
Wir werden wohl das so tun:
In Spiele-Tests so wie bis her. Dann wird halt FSR 3 Quality (auf RDNA 3) gegen DLSS 4.5 Performance getestet. Oder DLSS 4 Quality gegen Nativ (auf RDNA 3).

In klassischen Grafikkarten-Tests testen wir dagegen alle Karten mit derselben Renderauflösung, das wird von der Community so auch gewünscht. Und auch mit dem dazugehörigen Upsampling (also AMD mit FSR, Nvidia mit DLSS, Intel mit XeSS). Im Falle von RDNA 3 wird dann aber schlicht überall stehen, dass das Qualitativ deutlich schlechter ist als der Rest.
BloodReaver87 schrieb:
Kurz eine Verständniss Frage. Wenn ich DLAA nutze, spielt es eine Rolle ob ich DLSS 4.0 oder 4.5 nutze? DLAA rendert ja nativ - deshalb der Gedanke.
Die Presets haben nichts mit Nativ, Quality oder Performance zu tun, sondern mit dem DLSS-Algorithmus. Auch DLAA nutzt die Presets, es wird ja DLSS genutzt, nur mit nativer Auflösung. Also gibt es auch mit DLAA DLSS 4, DLSS 4.5 und co.
 
  • Gefällt mir
Reaktionen: CMDCake, Snapuman und BloodReaver87
Das DLSS "Greenstone" Update :evillol:
Ich muss jetzt wohl ein Jahr FSR5 warten, mist 😅
 
lmfaktor schrieb:
Was ist mit XeSS 1.3 vs XeSS 2? Ist es eins und dasgleiche? DLSS ist doch ausschliesslich für Nvidia Besitzer von Relevanz. XeSS ist jedoch universell und funktioniert mit allen Karten.
Hätte ich einfach gern gewusst. Warum schweigt man sich darüber aus.
XeSS 1.3 und XeSS 2 sind identisch, was Super Resolution entspricht. Neu bei XeSS 2 ist schlicht Frame Generation. Das ist der Unterschied. Und ausschweigen tun wir uns nicht über XeSS. Der Fokus liegt nur ganz klar auf DLSS und FSR, Intel-GPUs sind einfach viel weniger vertreten auf CB.
 
Uwe123 schrieb:
Gestern mal nur Diablo 4 ausprobiert, und habe mit dem neuen Treiber und DLSS 4.5 auf einmal Framedrops die ich mit 591.59 nicht habe (Upsampling Modell immer auf Neuestes, Framegen aus, Upsampling Quality oder DLAA). Bin danach gleich wieder auf den alten Treiber zurück gegangen.

So wie ich Diablo 4 kenne, tippe ich aber dass die Probleme eher mit dem neuen Treiber und nicht direkt mit DLSS 4.5 zu tun haben 😃
DLSS 4.5 (Preset M) ist laut NVIDIA Programming Guide nicht gedacht für DLAA oder Quality.
Preset M wurde für DLSS Performance trainert, DLSS Preset L für Ultra Performance.

Hab in Diablo Preset M mit DLSS Performance getestet und läuft sehr rund! (5080)
 
  • Gefällt mir
Reaktionen: Uwe123
Holzfällerhemd schrieb:
•Hust• Frame Generation •Hust•
Wenn die Power und Hardware schon nicht fürs Upscaling reicht, dann sollte man genau was fordern ? Jaaaa, Framegen. Damit dann nochmal weitere 20% verlierst und von einer 25fps Base-Framerate auf 50 Framegenst. :daumen: :freak:
 
  • Gefällt mir
Reaktionen: MiroPoch, jdiv und ShowOff
Blackfirehawk schrieb:
Nicht so wie bei AMD wo man einfach alte Karten ignoriert
Naja, nur weil RTX2000/3000 es theoretisch nutzen können, ist es praktisch eben nicht sinnvoll ist, wie man beim ersten Test hier gesehen hat. Ist für den Endkunden jetzt nicht wirklich soviel besser.
"For all RTX Card" ist Marketing damit man keinen Aufruhr bekommt wie AMD.
Für RTX 4000/5000 ist es nochmal eine Verbesserung, ja. Aber kein Game Changer Update mehr wie in früheren Tagen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: K1LL3RC0W, MiroPoch, schkai und 2 andere
Wenn ich es in AC EVO nutze sehe ich zwischen DLSS UQ und Q keinen Unterschied.

Allerdings wirkt es irgendwie überschärft (4-8x MSAA) und das Bild hat irgendwie einen ganz anderen Look wie Nativ mit 4xMSAA und Film AA.

Weiß noch nicht ob ich mich einfach an die Unschärfe gewöhnt hatte.
 
  • Gefällt mir
Reaktionen: DerSnake
@Wolfgang Sorry.. bin auch Generation Halflife (Jg. 86), also ich verstehe dich😄 Meinte allerdings Hogwards Legacy😬
 
  • Gefällt mir
Reaktionen: Veitograf, Snapuman und Jan
Mimir schrieb:
Gerade in KCD2, wo man in 1st person ständig die Kamera nach links und rechts schwenkt um sich umzusehen sehe ich bei hohen FPS einen gigantischen Mehrwert. Das Bild verschwimmt viel weniger, es ist einfach viel angenehmer.






Was ist denn daran unbequem in der Nvidia App global auf Model M zu stellen und sich dann nicht mehr darum kümmern zu brauchen? Also rein was das aktivieren des neuen Models angeht könnte es doch einfacher nicht sein?
Also bei mir verschwimmt da absolut nichts und das selbst auf einem 60HZ 4K TV. Ich zocke competitive melee auf pro lvl bin top 15 in Europa und ich merke den Unterschied zwischen 144Hz und 240Hz eindeutig, aber bei einem langsamen Rollenspiel davon zu reden, dass das Bild bei 120 Frames noch verschwimmen würde ist halt einfach an den Haaren herbei gezogen, vllt bist du einfach über empfindlich oder es ist halt einfach dein persönlicher Eindruck.
Wie gesagt bei einem Shooter wie BF6, CS2, Valorant glaube ich gerne, dass es einen Unterschied macht, ob du 100 oder 200 FPS hast, alleine schon weil die Maussensivität relativ hoch eingestellt ist und deine Maus quasi jeden Pixel schnellstmöglich punktgenau treffen muss, aber bei KCD2 was man sogar eher noch mit Controller steuert, da kannst du praktisch halt nicht mal effektiv so schnell deinen Stick nach links oder rechts bewegen, dass das Bild so schnell mitziehen könnte, damit es wirklich verschwimmt oder unscharf wird.
Klar kann man argumentieren mehr Frames = immer besser, aber ab nem gewissen Punkt ist halt einfach ein Punkt erreicht, wo du keine spürbare oder sichtbare Verbesserung mehr wahr nehmen kannst. Ich werde es jetzt gleich bei KCD2 aber noch mal extra testen, ich habe meine ich auf 90 FPS gecapped und werde dann mal auf 150 FPS unlocken und ganz schnell mit der Maus links, rechts rumfuchteln, um zu sehen, inwieweit das Bild da verschwimmt oder nicht verschwimmt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Veitograf, Brrr und Wanderwisser
Ich bin wohl einer von denen, die eher ernüchtert sind. Für mich ist DLSS 4.5 vor allem überschärft und sieht nicht mehr natürlich aus.
 
Zuletzt bearbeitet:
No_Toxic_Gamer schrieb:
"Auf RTX 2000 und RTX 3000 würde ich DLSS 4.5 außer in selektierten Einzelfällen dagegen nicht einsetzen. Dazu fehlt bei den alten Karten einfach die Leistung."
Ich hab auch nur das Fazit gelesen und die Begriffe "K Preset, M Preset" waren neu für mich.
Gibt es nicht mehr die Stufen Quality, Balanced, Performance?
Denn das war ja immer das bequeme an der Situation, wenn ich nicht genügend fps erreiche, muss ich eben auf Balanced runtergehen oder ein paar andere Grafikdetails reduzieren.
Klingt aufjedenfall komisch der Satz. Ich mein was für eine Alternative hat man denn?
Gar kein DLSS und mit nativer Auflösung auf 25fps rumkrebsen?
 
Zurück
Oben