Test DLSS 4.5 vs DLSS 4 vs. FSR AI im Test: Benchmarks mit RTX 5000, RTX 3000, RX 9000 und RX 6000

zig*zag schrieb:
Zudem muss man wissen, welche DLSS Einstellung man für welches Preset verwendet
Warum muss man das wissen? Das entscheidet der Entwickler.

Erst wenn man selbst dran rum basteln will, müsste man sich überhaupt mit den Presets auseinandersetzen, aber das lässt sich auf jede Software übertragen und das wird dann auch sowieso nur von Leuten gemacht, die Ahnung davon haben.
99% der Nutzer nehmen einfach das, was vom Spiel kommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grestorn
Wenn der Performance-Zugewinn-Trend von zukünftigen Versionen so bestätigt wird, müssen die Entwickler bald wieder ihre Spiele optimieren :D
 
  • Gefällt mir
Reaktionen: Andre83hro
zig*zag schrieb:
Es ist halt aktuell so, dass die meisten Spiele nicht offiziell DLSS 4 und 4.5 nutzen. Um also die bessere Bildquali zu bekommen, muss man leider manuell eingreifen. Dazu muss man aber wissen, dass z.B. Preset K (DLSS 4) ausschließlich mit DLAA, Qualität und Balanced Sinn macht. Preset L (4.5) nur mit Performance. Das ist alles andere als benutzerfreundlich umgesetzt...
Tatsächlich setzt du nur auf Kopfebene einmalig „empfohlen“ im Treiber und das war es. Was du schreibst geschieht im Hintergrund.
 
  • Gefällt mir
Reaktionen: xexex und Taxxor
@zig*zag das, was @Pro_Bro schreibt^^

Niemand muss wissen welches Preset man für was verwenden sollte, das macht in dem Fall entweder das Spiel selbst oder eben die App, wenn man DLSS 4/4.5 global überschreiben will.

Und wer gerne abseits der Empfehlungen handeln und z.B. wie ich M auch für DLSS Balanced verwenden will, der stellt das eben explizit ein, das ist aber wie gesagt nur eine Option und keine Notwendigkeit
 
  • Gefällt mir
Reaktionen: John_Wick89 und Grestorn
Ich bin mir zu ca. 97,5% sicher, dass "umso" synonym zu "desto" verwendet wird und es im ersten Punkt des Fazits in der Überschrift eigentlich heißen müsste: "Je hübscher, desto fordernder".
Alternativ ginge natürlich auch: "Umso fordernder, je hübscher." :D:D:D
fyi @Wolfgang

1769599662125.png
 
zig*zag schrieb:
Wirklich für jedes Game? Wo steht das?
Wenn Du es als globale Einstellung machst: Ja. Das steht in dem Wort "global".

zig*zag schrieb:
Zudem nutze ich die nV APP nicht, sondern den nVinspector.
Geht auch ganz genauso im Inspector (mit dem neuesten Profil). Die Einstellungen sind immer die selben.

Der Inspector ist nichts als ein alternatives Frontend für die NVidia App, die beide dieselben Einstellungen der nvapi für den Anwender bereitstellt. Deswegen muss der Inspector auch immer aktuell gehalten werden (bzw. sein Profil), damit die Optionen die richtigen Namen und Auswahloptionen erhalten.
 
Lamaan schrieb:
Okay, hier ist noch mal ein interessantzes Video dazu.
Demnach ist FSR 4 besser als DLSS4 und schlechter als DLSS4,5 jednfalls öfter, aber viele Dinge die für mich wichtig sind, wie die Haare meines Charakters sind oft am besten mit FSR4 nach Hardwareunboxed.

Für mich war es das erst mal zu dem Thema.
FSR4 ist jetzt nutzbar, das ist was ich daraus mitnehme.
Ich wünsche eine gute Nacht :)

Hast du ein anderes Video gesehen? Er sagt doch am Ende ganz deutlich dass schon DLSS4 besser als FSR4 ist und DLSS4.5 diesen Vorsprung nicht verkleinert hat.
 
Grestorn schrieb:
Wenn Du es als globale Einstellung machst: Ja. Das steht in dem Wort "global".


Geht auch ganz genauso im Inspector (mit dem neuesten Profil). Die Einstellungen sind immer die selben.

Der Inspector ist nichts als ein alternatives Frontend für die NVidia App, die beide dieselben Einstellungen der nvapi für den Anwender bereitstellt. Deswegen muss der Inspector auch immer aktuell gehalten werden (bzw. sein Profil), damit die Optionen die richtigen Namen und Auswahloptionen erhalten.
Dann hab ich das auf Reddit falsch verstanden. D.h. also wenn ich ingame einfach DLAA/Quality oder Balanced einstelle, wählt er automatisch Preset K und für performance/ultra performance dann M bzw. L auch wenn das Spiel ansich DLSS 4 bzw. 4.5 nicht offiziell unterstützt?
 
zig*zag schrieb:
D.h. also wenn ich ingame einfach DLAA/Quality oder Balanced einstelle, wählt er automatisch Preset K und für performance/ultra performance dann M bzw. L auch wenn das Spiel ansich DLSS 4 bzw. 4.5 nicht offiziell unterstützt?
Wenn es global auf Empfohlen steht, ja
 
  • Gefällt mir
Reaktionen: xexex und zig*zag
@zig*zag wenn du die Nvidia App installiert hast, kannst du dir das aktuelle Preset im Overlay anzeigen lassen.
Mit dem Inspector gibts aber glaube ich auch irgend ne Datei die man ausführen kann, wo einem dann unten links in der Ecke die Renderauflösung und die DLSS Version inkl Preset angezeigt wird

https://www.reddit.com/r/nvidia/comments/1ie9nl4/psa_to_verify_if_dlss_override_works_in_game/
Der erste Kommentar unter diesem Post hat ne gute Möglichkeit dafür

sieht dann so aus
1769602666149.png


Nicht von dem DLSSv3 irritieren lassen, Preset K heißt DLSS 4 und man sieht hier auch, dass es über die Nvidia App überschrieben wurde
 
  • Gefällt mir
Reaktionen: zig*zag und Banjo
zig*zag schrieb:
Dann hab ich das auf Reddit falsch verstanden. D.h. also wenn ich ingame einfach DLAA/Quality oder Balanced einstelle, wählt er automatisch Preset K und für performance/ultra performance dann M bzw. L auch wenn das Spiel ansich DLSS 4 bzw. 4.5 nicht offiziell unterstützt?
Exakt so ist es.

Wenn Du in der NVApp auf "Empfohlen" stellst. Bzw. ein aktuelles Inspector Profil hast, in dem es diese Einstellung gibt, und Du sie dort einstellst.

Wenn Du in der App fest auf "Profil M" stellst, dann wird immer M genommen, egal bei welcher DLSS-Einstellung.
 
  • Gefällt mir
Reaktionen: zig*zag
Bei dem vielen gemecker über NVIDIA in der letzten Zeit, werde ich dennoch mal lobend für mich erwähnen das ich es sehr löblich finde das alle Generationen bis runter zur RTX 2000er Serie die aktuelle Upsampling Technologie unterstützen (mit Einschränkungen z.B. Frame Generation, MFG...) und bin ein wenig enttäuscht das AMD ist nicht schafft ihr FSR AI für die älteren Gens verfügbar zu machen (was ja technisch durchaus möglich ist wie findige Leute bewiesen haben). Da ich nur noch wenig aktuelle bis alte Spiele daddel kommt es mir zwar nicht aufs letzte FPS an aber eine vernünftige Auflösung und evtl. Niedrigeren Stromverbrauch für gleiches visuelles Erlebnis nehm ich gern mit.
 
zig*zag schrieb:
Finde DLSS 4.5 irgendwie in jeder Hinsicht enttäuschend bisher... Zudem muss man wissen, welche DLSS Einstellung man für welches Preset verwendet. Viel zu Anwenderunfreundlich...
nein das geht jetze automatisch
 
lWllMl schrieb:
die 5090 leute verstehen halt oft schwer, wie schlecht es ist keine 5090 zu besitzen, darunter: da musste solange einstellen bis 4K flüssig läuft bis du dann bemerkst das es kein 4K mehr ist sondern 1440p 🤣 widerwertige bügeleisen texturen die einfach nur weich & glatt gezogen sind sehen 5090 nutzer auch nie 😂
Jemanden wie dich will ich nun wirklich nicht angreifen. Du bist mit deiner 5090 zufrieden? Freut mich wirklich für dich. Ich habe einst meine 4090 verkauft, weil die Treiber, insbesondere die App, kompletter Schrott waren. Habe nun eine 9070XT, auch unter Wasser und bin sehr zufrieden.
 
  • Gefällt mir
Reaktionen: Andre83hro
DerNiemand schrieb:
ich fände es ja spannender zu sehen, wie es sich mit Mittelklasse oder Lowbudget Karten wie die 8 GB 4060 verhält. Eine Karte zu testen, die solche Spiele bei nativer Auflösung in guter Framezahl hinbekommen, finde ich da etwas unnötig.
daraus kann man genauso die performance abweichungen ableiten!
Ergänzung ()

Identify schrieb:
Ich nutze DLSS 4.5 hauptsächlich in BF6 und bin absolut begeistert. Hab selber mit ein paar Kombis probiert, am besten find ich die Kombi aus Ingame-Preset High, DLAA, DLSS Ultra Performance gepaart mit Preset M.

Habs gestern erst wieder probiert, auf dem Schießstand komm ich so von nativ 4k mit 65fps auf 200fps, ohne Framegen. Und es sieht für mich mindestens gleichwertig wenn nicht besser aus.

Mit Framegen 4 dann sogar auf 400fps. Und im Spiel je nach Map dann immer so um die 130-150fps, was sehr angenehm ist. Auf einem 4k OLED 27 mit 240Hz (Samung G81SF, 3rd Gen QD-OLED).
dlaa und ultra performance geht nicht zusammen falls du die dlss level meinst.
Ergänzung ()

BloodReaver87 schrieb:
Es wäre interessant zu wissen, ob z. B. DLSS 4.5 Model M im Quality-Modus besser aussieht als DLSS 4.0 Model K mit DLAA – und wie gross der Performance-Unterschied dabei ist.

Das ist vor allem dann relevant, wenn man eine RTX 4090 oder 5090 besitzt und die bestmögliche Bildqualität bei gleichzeitig flüssigen FPS erreichen möchte.

Inzwischen gibt es so viele unterschiedliche Optionen, dass ich das persönlich eher unglücklich finde. Naheliegend ist natürlich, einfach „Empfohlen“ auszuwählen – allerdings verzichtet man damit womöglich auf Bildqualität, obwohl eigentlich genug Leistung für höhere Settings vorhanden wäre.

Andersrum, wenn man Model M "erzwingt", kiegt man dann im Quality/DLAA modus nicht immer die erhofften FPS und fragt sich dann "schalte ich jetzt runter auf Balanced/Performance" oder wechsle ich auf DLSS 4.0 Quality.
quality dlaa gibts nicht! dlaa setzt nativ voraus.
 
Zuletzt bearbeitet:
hallo gedi,

na wir sind hier ja alle computerfreunde die gerne ihre erkenntnisse teilen, damit wir mit den teilweise intelligenten artefakten bessere erscheinungen generieren können, ich bin mit meiner gt710 hochzufrieden :)

es ging darum sich in die 5090 besitzer hereinzuprojezieren, CEO/CTO's fahren doch sicherlich alle mit 4x5090 RIGS, wenn nicht sollten sie ersetzt werden? 😂😂bei denen läuft MFG sicherlich super, das spiegelt nur nicht die realität der unteren subgamer wieder, 5070Ti hat mir MFG langfristig nichts gebracht, auch kein bock mehr es mit dieser gpu einzuschalten, ich stelle die meißten games immer so ein das sie hübsch aussehen, da gehts dann immer auf 45fps-60fps runter, völlig unbrauchbar für mfg, und games die nur mit übelsten downscaling 720p1080p flüssig rennen, also die unoptimierten games die alle weich und verwaschen aussehen und keine details in den texturen haben... sowas müssen 5090 user nicht sehen, wenn doch wissen sie nicht wie sie ihre 5090 ausreizen 😂 ... ist schon geile ne 5090 zu haben, scheinbar sind alle games nur für 5090 optimiert? xD

nein spass ich fahre mit der 5070Ti ganz gut, so ein foundation rennt dann trotzdem nur mit diashow,gut für opencl testen schätze ich und , & anno ist auch knapp davor, wieder diashow zu werden, ich will halt das beste spielbild wie man keine 4090/5090 haben will ist mir schleierhaft, was ist pc masterrace ! 5070Ti/9070XT sind doch nur temporäre lösungen, da sollten man sich nicht ewig drin aufhalten 😂 wann schaltet gedi denn wieder ein gang rauf? du könntest auch 6K ankratzen und dich nochmal wegflashen ! 😃schafft das ne 9070XT? ich konnte mit der 5070Ti durchaus einige games in 2880p spielen, nochmal geiler vorallem auf 32" und 10cm sitzabstand... ziel ist natürlich die dicken kracherspiele in der zukunft auf 6K zu spielen und da fahren wir beide mit 9070XT/5070Ti zu schlecht und nicht nur wir, sondern alle mit ihren mageren 16gb karten die eigentlich nur 1440p zuverlässig in die monitore brennen, 32" 6K auf 10cm ist gold 😎

hab hier auch ne coole 3060 da sieht man richtig schön wie unhomogen die 3d universen zusammengesetzt sind 😋 wenn das 3drendering auflösungsformat mit der gpu mathematisch fehlkonstruiert ist, war gestern sogar am überlegen ob ich für einige high fps_games komplett runter auf 1080p als basic solution gehe und einfach an 40" mit 1m sitzabstand spiele, dann übernimmt mein REALES AUGE die schärfung 😁,

wenn ich sehr viel watt durch schwache gpus sende bin ich kein ökologischer wicht XD

hätte amd damals ne rdna4 24gb gebracht hätte ich die wohl gekauft, 7900xtx 24gb war schon im warenkorb 800€ waren das damals, wäre ein geiler deal gewesen, hatte aber nur rdna3 ... ich warte da auch ganz geduldig, bis da was neues von amd kommt,

ob amd das bessere bild liefert kann ich dir gar nicht sagen, digitale bildvergleiche haben in der kette darstellungsschwachstellen,kenne reale bildvergleiche mit amd fsr auf nvidia karten und das wirkt immer sehr grobpixxelig, womit man als modder aber sicherlich auch sehr gut arbeiten kann... amd fsr auf nvidia karten schneller als auf amd?, na amd fsr hat mir in einigen games auf jeden fall mehr fps gebracht als dlss, blöde das man dlss auf amd karten nicht testen kann lel naja...

... kann mir aber nicht so recht vorstellen, das alle games auf amd per default super optimiert sofort spielbar sind und man in der amd app nicht viel einstellen braucht damit das game 1a aussieht, im nvidia ecoverse kann man wirklich alles einstellen was man will, damit werben die großen nvidia player doch und das funktioniert imho auch und das soll auf amd noch schneller und einfacher sein,

ich bin da skeptisch, genauso skeptisch wie ich bin wenn ich sehe, wie wenig apps es auf linux gibt die mit winapps mithalten können... 😂 nichtmal monitor saturation konnte ich schnell & zuverlässig einstellen XD musste mir da erstmal diverse apps selbst schreiben um diverse sensoren auszulesen, denke im amd ecoverse ist das ähnlich? was sagen die experten, kann man die amd fsr scale override methode auch wie bei nvidia in game als infolayer anzeigen? jetzt noch nicht? aber morgen, wer schreibt denn sowas, der gedi vllt? oder muss das wieder ein nvidia dude sein der auf win11 linux apps für amd schreibt 😂
 
Zuletzt bearbeitet:
quakegott schrieb:
Du als stolzer Besitzer einer RTX 5090 hast es scheinbar verstanden. Würdest du DLSS wirklich so toll finden dann hätte es eine 5070ti auch getan
quatsch. habe ne 5090. alan wake oder andere rt games machen bei 4k 40-60 fps. da braucht es dlss und fg.
Ergänzung ()

minimii schrieb:
Habe gestern nochmal KCD2 mit dem M Preset in 4K und alle regler rechts gespielt.

Das Bild ist sehr gut.
Allerdings neigt das Spiel immer noch dazu unter 60fps zu fallen - obwohl die Karte nicht voll unter last ist.
cpu bottleneck?
 
Zurück
Oben