Test Nvidia DLSS 4.5 (SR) im Test: Analysen & Benchmarks auf RTX 5000, 4000, 3000 & 2000

@Identify je nachdem welchen Modus du im Spiel auswählst (quality, Balanced, Performance, ultra Performance) wird mit dlss 4.5 eben entsprechende Presets genutzt. Nutzt du die Empfehlung, dann eben L bei ultra performance, M bei performance, K bei quality und Balanced. Nimmst du lastest, wird immer L genutzt. Oder immer deine Wahl.
 
  • Gefällt mir
Reaktionen: Identify
@Fika Dann beeinflussen diese Spiel Presets (Quality, Balanced, Performance,...) die Base-Auflösung die genutzt wird, richtig?

Habs grad mal in BF6 auf dem Schiessstand ausprobiert was das ausmacht.

Maus nicht bewegt, immer grad aus geschaut.

BF6 Schießstand

5070 Ti AMP Extreme INFINITY im Quiet Mode.


DLSS 4.5 Preset L:

Ultra Performance 185
Performance 135
Balanced 115
Quality 99


DLSS 4.5 Preset M:

Ultra Performance 197
Performance 148
Balanced 125
Quality 108

Interessanterweise hat M (Performance) bei mir sogar mehr fps als L (Ultra Performance).
 
Zuletzt bearbeitet:
Ja, genau. Bei performance (= Faktor 2) bspw wird bei 4k mit 1080 gerendert und je nacht Einstellung in der App eben mit M oder K oder deiner Wahl, die Kanten geglättet und hochskaliert.

Außer bei Verwendung ray reconstruction (path tracing), da wird es wieder mit einem ganz anderen Modell gemacht.
 
  • Gefällt mir
Reaktionen: Identify und Laphonso
CruellaDE schrieb:
Warum wird M und L nur für Performance/Ultra Performance "empfohlen" ?

Würde bedeuten, die Modelle lohnen sich erst ab 4k + Auflösungen ?
Nvidia versucht sich hier an einer Gratwanderung. M und noch mehr L sind insbesondere auf RTX 2000 und 3000 deutlich teurer als K. Da die Performance relevant leidet, kann M leider nicht die Standardempfehlung in höheren Auflösungen sein, vor allem auch, weil Outlets häufig DLSS Quality testen und die resultierende Bildqualität weniger bewerten.

Für jemanden mit RTX >= 4000 wäre m.E. die Empfehlung immer M zu wählen (außer für UP) und dann die Stufe zwischen Performance und Quality zu wählen, die die gewünschten FPS liefert. Natürlich nur, sofern M keine ungewünschten Bildfehler erzeugt.

Und dadurch sind die neuen Modelle auch durchaus noch für 1080p Balanced und 1440p Performance interessant.
 
  • Gefällt mir
Reaktionen: CruellaDE
Passt hier zwar nicht zu 100% rein, doch wie es scheint ist die 5070 Ti EoL:


@Jan vielleicht ne Meldung wert?
 
  • Gefällt mir
Reaktionen: Quidproquo77
Identify schrieb:
Interessanterweise hat M (Performance) bei mir sogar mehr fps als L (Ultra Performance).
Nein, du würfelst da einiges durcheinander.

Das Preset (in deinem Beispiel L und M) hat nichts mit der Renderauflösung zu tun, sondern ist der eingesetzte Algorithmus. L frisst dabei mehr Ressourcen und du hast dadurch weniger fps, gleichzeitig hast du bei gleicher Renderauflösung tendenziell ein besseres Bild.

Die Modi, also z.B. Quality oder Performance, beschreiben die Renderauflösung bevor dann der Upscaling Algorithmus loslegt.

Du kannst also jedes Preset mit jedem Modus einsetzen. Der Unterschied ist nur dass Nvidia angibt M wäre für Performance optimiert, L für Ultra Performance und K für den Rest.
 
  • Gefällt mir
Reaktionen: t3chn0
BxBender schrieb:
NVidia hat ein großes Imageproblem:
man entwickelt vorzügliche Softwarefeatures, die dann aber mit der verkauften Hardware einfach nicht gut funktioniert, bzw. natürlich nur mit der neuesten und teuersten Version.
AMDBender sucht wieder das Haar in der Suppe und wenn er keins findet, erfindet er eben was.
Wenn es nichts negatives zu sagen gibt, kann man auch einfach mal schweigen.
 
  • Gefällt mir
Reaktionen: ev4x, NguyenV3 und Quidproquo77
bisher war das dlss relativ einfach...entsprechendes preset (quality / balanced / performance) wählen und gut wars. dann war im zweifelsfall nur noch die frage welche dlss version die games mitbrachten...

jetzt scheint es ein mischmasch aus dlss4 und 4.5 zu sein zusätzlich zu den "buchstaben" presets..J, K, L, M...
...und ich bin werwirrt: was muss man nun einstellen damit dlss 4.5 in quality preset läuft für die ausgabeauflösung von 3440x1440??
 
blautemple schrieb:
Nein, du würfelst da einiges durcheinander.

Das Preset (in deinem Beispiel L und M) hat nichts mit der Renderauflösung zu tun, sondern ist der eingesetzte Algorithmus. L frisst dabei mehr Ressourcen und du hast dadurch weniger fps, gleichzeitig hast du bei gleicher Renderauflösung tendenziell ein besseres Bild.

Die Modi, also z.B. Quality oder Performance, beschreiben die Renderauflösung bevor dann der Upscaling Algorithmus loslegt.

Du kannst also jedes Preset mit jedem Modus einsetzen. Der Unterschied ist nur dass Nvidia angibt M wäre für Performance optimiert, L für Ultra Performance und K für den Rest.
Das hab ich auch nicht so verstanden.

L und M bestimmen den Algorithmus. Die Presets im Game die Base-Auflösung der Algorithmen. So hab ichs auch verstanden.

Aber vom Wording her L (Ultra Performance) und M (Performance) denkt jeder erstmal (ich auch), dass L mehr FPS liefert als M. Und genau das Gegenteil ist der Fall.
 
Identify schrieb:
Aber vom Wording her L (Ultra Performance) und M (Performance) denkt jeder erstmal (ich auch), dass L mehr FPS liefert als M. Und genau das Gegenteil ist der Fall.
Weil du das Wording falsch verstehst. L und M sind der Algorithmus, die haben nichts mit dem Modus zu tun.

Der Modus ist nicht der Algorithmus.
 
  • Gefällt mir
Reaktionen: Taxxor und rumpeLson
@cypeak
Du wählst einfach in der Nvidia App das Modell "M" aus, fertig. Wenn Du "M" global setzt, hast Du immer DLSS 4.5 aktiviert, egal was Du im Spiel als DLSS Modus ausgewählt hast.

Du könntest auch "L" testen. Kostet mehr Leistung, sieht allerdings auch besser aus.

Die im Spiel zu setzenden Modi (Quality, Balanced, Performance, Ultra Performance) haben was mit der internen Render-Auflösung zu tun. Das Modell (M,L) haben Einfluss auf die Berechnung des Bildes und damit die Verarbeitung der Skalierung.
 
  • Gefällt mir
Reaktionen: Taxxor und rumpeLson
cypeak schrieb:
bisher war das dlss relativ einfach...entsprechendes preset (quality / balanced / performance) wählen und gut wars. dann war im zweifelsfall nur noch die frage welche dlss version die games mitbrachten...

jetzt scheint es ein mischmasch aus dlss4 und 4.5 zu sein zusätzlich zu den "buchstaben" presets..J, K, L, M...
...und ich bin werwirrt: was muss man nun einstellen damit dlss 4.5 in quality preset läuft für die ausgabeauflösung von 3440x1440??
Naja ich glaub dass ist nur jetzt aktuell in der Einführungsphase von DLSS4.5. Irgendwann wird das richtig integriert und dann kannst du wahrscheinlich wieder einfach nur die Regler im Spiel benutzen.
 
t3chn0 schrieb:
Du könntest auch "L" testen. Kostet mehr Leistung, sieht allerdings auch besser aus.

Das würde ich verneinen. Es neigt mehr zu ghosting. Es werden wahrscheinlich mehr temporale Daten genutzt, um das flimmern im Ultra Performance Modus zu unterdrücken, was ja auch sinnvoll ist, aber das führt zu potenziell mehr Ghosting z.B. bei partikeln oder disocclusion.

Ich hatte mit L auch stellenweise schon mehr Kantenflimmern statt weniger. Kommt wahrscheinlich daher, dass für den Ultra Performance Modus andere Jitter Muster und Phasen für die Kamera genutzt werden (siehe entwickler guidelines) und Preset L wohl genau darauf optimiert ist.

L kann manchmal schon sinnvoll sein, es kann aber auch klar schlechter als M aussehen. Es kommt stark auf Spiel an. In den meisten Fällen sieht M im Performance Modus oder höher besser aus als L. Völlig ungeachtet der Performance Kosten.

Ich würde L nur ausprobieren, wenn man mit M probleme mit flimmernden Kanten oder Effekten oder rauschen hat. Wenn halt irgendwas schlecht stabilisiert wird. Dann kann L helfen oder es sogar schlimmer machen. Muss man testen. Praktisch immer empfehlen kann man es nur im Ultra performance Modus.
 
DaHell63 schrieb:
Bei wem? Doch hauptsächlich bei denen die keine haben.

Bei der Midrangekarte von 2023 meiner Frau (RTX 4070Ti) funktioniert alles bestens.....

Anhang anzeigen 1697173Anhang anzeigen 1697174

.....könnte mir was schlimmereres vorstellen als mehr FPS bei weniger verbrauch

Bei 12gb 4070ti melden sich vram Probleme allerdings auch diffuser als zb bei 8b karten.
Oft allerdings nur wenn man die "gpu" performance voll ausnutzen will, die bei der 4070ti oft stark genug ist fur 4k und 5k aber da reicht der vram nicht mehr.

Hatte die 4070ti ende 2022 auch gekauft weil ich dachte, ja für 1440p ultra passt 12gb schon. Damals waren mir Hogwarts Legacy und Hellblade 2 wichtig.

Der Punkt war bei Hogwarts hätte 1440p ultra geklappt wenn Framegen 2x funktioniert hätte aber das spiel ist rproduzierbar abgestürzt weil der vram voll läuft wenn framegen an ist.

Nach jetzt 3 jahren oder so reduziert hogwarts bei karten unter 16gb die texturdetail automatisch und framegen läuft ganz gut.

bei anderen unreal engine spielen hatte ich EXAKT dasselbe verhalten zb. deliver us the mars. da gabs zwar kein framegen aber der vram lief auch bei 4k schon voll.

Wie gesagt, wenn man die 4070ti (gpu) in spielen wo sie 4k/5k "schafft" nutzen will, fuhrt der vram oft zu crashes (ue) oder lauft zumindest voll.

viele spiele schrauben deshalb oft schon details runter ohne das du das erkennst im menü, wenn du alles auf ultra stellst.

man kann eig nicht an vram sparen, 1080p 12gb, ab 1440p 16gb würd ich sagen.
Imho ist die 4070ti mittlerweile so vram unterdimensioniert wie damals die 3070ti mit 8gb.

Ich hätte damals lieber 4070 oder 4080 genommen.
 
  • Gefällt mir
Reaktionen: Andre83hro
Identify schrieb:
L und M bestimmen den Algorithmus. Die Presets im Game die Base-Auflösung der Algorithmen. So hab ichs auch verstanden.

Aber vom Wording her L (Ultra Performance) und M (Performance) denkt jeder erstmal (ich auch), dass L mehr FPS liefert als M. Und genau das Gegenteil ist der Fall.

Das Wording ist aber nicht "L (Ultra Performance) und M (Performance)" sondern "Preset M wird empfohlen bei der Verwendung der Stufe Performance und Preset L wird empfohlen bei der Stufe Ultra Performance".

Und das ist so, gerade weil L mehr Performance benötigt als M.

Und das macht auch soweit Sinn, je niedriger die Renderauflösung bzw je höher die Diskrepanz zwischen Render und Zielauflösung, desto mehr muss der Algorithmus für ein vergleichbares Ergebnis leisten, das kostet dann auch zusätzliche Performance.
Deshalb wird L für Ultra Performance empfohlen, wo man zwischen L und M auch noch einen Unterschied sieht und es sich daher lohnt, aber nicht für Performance, wo L und M relativ gleich aussehen und man hauptsächlich schlechtere Performance hätte, wenn man hier L nutzt.

Das gleiche bei DLSS Quality, hier wird man zwischen K und M noch einen kleinen Unterschied bemerken, zwischen M und L auf jeden Fall aber nicht mehr. Daher wird hier Preset K empfohlen für den besten Mittelweg aus FPS und Bildqualität
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Identify und Vigilant
@rumpeLson

Bleibt die Frage ob L rein von der Bildqualität besser oder schlechter als M ist? CB hat ja nur M getestet und L als Spezialfall bezeichnet 😄
 
  • Gefällt mir
Reaktionen: rumpeLson
CruellaDE schrieb:
Bleibt die Frage ob L rein von der Bildqualität besser oder schlechter als M ist?
Es ist zu erwarten dass es besser ist, schließlich ist es dafür gedacht mit noch weniger Pixeln zu arbeiten.
Ob es bei mehr Pixeln als Grundlage dann aber noch so stark auffällt, um den zusätzlichen FPS-Verlust rechtfertigen, ist die wichtigere Frage.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CruellaDE
Hotzenplotz45 schrieb:
Wie gesagt, wenn man die 4070ti (gpu) in spielen wo sie 4k/5k "schafft" nutzen will, fuhrt der vram oft zu crashes (ue) oder lauft zumindest voll.
In den Spielen in denen sie 4-5K schafft...echt?
Hotzenplotz45 schrieb:
viele spiele schrauben deshalb oft schon details runter ohne das du das erkennst im menü, wenn du alles auf ultra stellst.
Dann müssten die Spiele die selben Details bei meiner RTX 4070Ti super runterstellen....auch bei der geht nicht alles ultra. Und 4-5K schon garnicht.
Hotzenplotz45 schrieb:
Imho ist die 4070ti mittlerweile so vram unterdimensioniert wie damals die 3070ti mit 8gb.
Aber ja doch...
a.jpgb.jpg

...und mit dem neuen upscalling schauts sicher nicht besser aus für die 24GB VRam Ti.
Dei RTX 4070Ti war noch nie eine 4K max Karte und wird auch nie eine werden
 
Stimmt schon, allerdings habe ich den Eindruck, dass viele schon Pickel bekommen, wenn sie ohne die Settings anzufassen keine dreistelligen FPS sehen, was bei vor allem bei OLEDs, aber auch anderen Monitoren mit 165Hz und mehr vielleicht auch nachvollziehbar scheint.
 
  • Gefällt mir
Reaktionen: joel und Hotzenplotz45
DaHell63 schrieb:
Dann müssten die Spiele die selben Details bei meiner RTX 4070Ti super runterstellen....auch bei der geht nicht alles ultra. Und 4-5K schon garnicht.
Wie gesagt ich hab Spiele genannt die auf meiner 4070ti auf 5K liefen bis der VRAM voll lief und sie crashten.

Und du hast es nicht verstanden Games wie zb. Forspoken (UE5) reduzieren intern die Detail,selbst wenn man auf Ultra stellt. Aber NUR wenn man zu WENIG vram hat also 8gb/12g. Da gabs auch mal ein gutes Video von Daniel Owen zu.

Bei 16gb wie mit deiner Ti Super ist man VRAM technisch mit 16gb soweit sicher aktuell.

Man muss immer unterscheiden WAS eine Graka limitiert und wie sich das AUSWIRKT. UE4 Games tendieren zum crashen wenn der vram volläuft, UE5 reduziert ungefragt Details oder wird langsamer (Optimalfall).

Früher wars immer einfach, alle graka zeigen dasselbe an wenn ich auf MAX stelle, nur halt weniger fps/höhere latenz. Heute stellst du max ein aber die Spiele zeigen dir nicht mehr max.

Selbst eine normal 4070 kann ohne Probleme 4k:
Ergänzung ()

Vigilant schrieb:
Stimmt schon, allerdings habe ich den Eindruck, dass viele schon Pickel bekommen, wenn sie ohne die Settings anzufassen keine dreistelligen FPS sehen, was bei vor allem bei OLEDs, aber auch anderen Monitoren mit 165Hz und mehr vielleicht auch nachvollziehbar scheint.
Genau das wundert mich auch so ungemein. Ist nicht so als wäre ich hohen FPS abgeneigt aber wenn ich geile Optik kriege, bin ich auch mit sagen wir mal min 45fps zufrieden, solang es stabil bleibt.

(Ausser bei Racing, da sollte es miiiiindestens 60 sein obwohl besser 90fps.) 60fps "Limit" bei "The Crew 2" war lächerlich xD 5090 läuft bei 30% xD
 
Zuletzt bearbeitet:
Zurück
Oben