News Nvidia Ada Lovelace: DLSS 3 beschleunigt weitere Spiele mit Frame Generation

anappleaday schrieb:
Zur Zeit wird irgendwie viel Werbung für Sachen gemacht, die dann erst mal gar nicht erscheinen…
Plague Requiem sollte zb Raytracing erhalten, bis heute absolut keine Spur davon, trotz der massiven Werbung vorher.

So weit ich weiß, kommt das CP Patch Ende Januar. Nvidia hat Frame Generation deutlich verbessert. Ich denke, man wollte das Update zunächst abwarten, bevor man das ausrollt. Die Tech Medien gehen nicht gerade zimperlich um mit Nvidia Features, wenn das nicht nahezu 100% rund läuft. A Plague Tale Requiem ist eines der Grafikkracher 2022. Das Spiel weist eine enorme Szenenkomplexität auf. Das bedeutet, dass ältere Grafikkarten ohne RT schon auf dem Zahnfleisch gehen. Das Game braucht die richtige Optimerierung und das kostest Zeit, denn am Ende wird auch wieder gemeckert, wenn es nur auf einer RTX 4090 mit FG einigermaßen flüssig läuft.

@Jan Irgendwie ist die Seite verbuggt. Es passiert sehr oft, dass Zitate verschwinden. Im Editor sieht alles töfte aus, aber klicke ich dann auf "Antworten", ist das Zitat verschwunden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Taxxor und Hutzeliger
Mr. Smith schrieb:
Zudem ich die Sinnhaftigkeit von DLSS3 bei einer 4090 jetzt auch nur bedingt sehe. In welchem Szenario und welchem Game sollte ich das überhaupt anschmeißen und mir all die Nachteile antun?
Ich sehe abseits der Analysen der Tech-Youtuber, wo Pixel-Peeping bei 200% Vergrößerung auf Standbildern betrieben wird, keine Nachteile. In Bewegung fühlt sich DLSS3 fantastisch an und ist ein echter Gewinn. Klar, die FPS müssen schon vorher passen, sonst wird der Input-Lag unerträglich. Das ist keine Technik um ein Spiel von 40 FPS auf 60 FPS zu heben, sondern um aus 60 FPS butterweiche 100 FPS zu machen.
 
Mr. Smith schrieb:
Zudem ich die Sinnhaftigkeit von DLSS3 bei einer 4090 jetzt auch nur bedingt sehe. In welchem Szenario und welchem Game sollte ich das überhaupt anschmeißen und mir all die Nachteile antun?

Hast du überhaupt eine 4090?
Also ich habe eine und DLSS3 ist einfach der Hammer.
 
  • Gefällt mir
Reaktionen: Lübke82
@MujamiVice
Ne, aber ne 4080 und DLSS3 ist allenfalls im Beta-Stadium. Die Bildqualität leidet (was ja klar ist; nativ ist halt nativ und DLSS mindert die native Auflösung); speziell in schnellen Games merkt man das Input-Lag und dass die künstlich eingesetzten Frames nicht sauber sind.

In Witcher3 führt es ganz massiv zu Bildfehlern (weisse Lichtblitze am unteren Bildrand, wenn man auf Plötze reitet z.B.)
Nativ sieht es absolut sauber aus und auch ein DLSS2 hat diese Probleme nicht.

Die stark erhöhte Framerate würde in kompetitiven Games eventuell was bringen… durch das krasse Input-Lag ist es aber automatisch wieder nutzlos, in besagten Games. Man kann parallel Reflex anschmeißen, aber auch das hilft nur bedingt. Für mich ist das etwas für SlowPaced-Singleplayer-Games; wenn es denn sauberer berechnet wird, als z.B. in TW3.

Nächste Generation sieht es vllt besser aus, aber aktuell ist DLSS3 noch shit, wenn Bildquali an erster Stelle steht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Aserback
Mr. Smith schrieb:
In Witcher3 führt es ganz massiv zu Bildfehlern (weisse Lichtblitze am unteren Bildrand, wenn man auf Plötze reitet z.B.)
Nativ sieht es absolut sauber aus und auch ein DLSS2 hat diese Probleme nicht.
Du führst da einen behebbaren Bug an für eine generelle Kritik an der Bildqualität?! Ich will das nicht leugnen, PCGH hatte das bereits gezeigt, dass es diesen Fehler gibt in The Witcher 3. Ok, aber deswegen das gesamte Feature abstrafen?

Ich hatte mir das auch kritisch angeschaut. In A Plague Tale Requiem gab's vereinzelt Artefakte. Konnte man mit leben. Spider-Man Remastered ist worst case, was das betrifft. Hier würde ich ich es persönlich abschalten. Mit einem 13900K braucht man es auch nicht. Aber in The Witcher 3 sieht es echt phänomenal aus und bringt richtig was im CPU-Limit, was einen selbst mit einem 13900K oftmals heimsucht.
 
  • Gefällt mir
Reaktionen: Lübke82, Taxxor und MujamiVice
Leute, bitte bedenkt, dass es 8 Milliarden Menschen und doppelt so viele Augen gibt. Jede Person kann es anders wahrnehmen auch wenn es z.T. keine Erklärung dafür gibt. (z.B. Phantomschmerzen)
 
Syrato schrieb:
Mit DLSS 3.0 aktiv bin ich bei über 100 FPS, aber es fühlt sich, haptisch, nicht wie 100+ FPS an.
LinusTechTips hatte mal Latenzen analysiert.
Gerade RayTracing sorgt für solche.
Warhammer Darktide spiele ich mit DLSS Quality auf 1440p. Fühlt sich besser in der Hand an und erstaunlicherweise ist es das einzige Spiel, wo DLSS Quality bei dieser Auflösung (21:9, 1440p) mich nicht stört. Ist halt Nvidias Vorzeige-Game.
 
Syrato schrieb:
Leute, bitte bedenkt, dass es 8 Milliarden Menschen und doppelt so viele Augen gibt. Jede Person kann es anders wahrnehmen auch wenn es z.T. keine Erklärung dafür gibt. (z.B. Phantomschmerzen)
Latenzen sind messbar, Phantomschmerzen nicht. :D
 
Ach lol, bei Warhammer Darktide ist ein Setting in den Maus-Einstellungen. Es sorgt für mehr Delay!

Dieser Dead-Threshold bei der Maus oder wie das heißt muss von 0.10 auf 0.00!!!!!!!!
Ansonsten die Gegenprobe machen und auf max stellen.
 
anappleaday schrieb:
Dazu muss gesagt werden:
Cyberpunk hat nach wie kein DLSS 3 per Patch erhalten und ein Datum gibts dafür auch immer noch nicht!
Also mir reicht es wenn der Patch mit erscheinen des DLCs kommt
Wo stellt man dann eigentlich FG usw ein? Im Grafik Menu des Spiels ?
 
Zuletzt bearbeitet:
Don_Tralle schrieb:
was wäre denn DLSS 2.4 im Menü des Spiels?
Es wird keine Unterscheidung zwischen speziellen Versionen gemacht, es heißt einfach nur DLSS in den Optionen oder auch mal ausgeschrieben Deep Learning Super Sampling.
Zer0Strat schrieb:
@Jan Irgendwie ist die Seite verbuggt. Es passiert sehr oft, dass Zitate verschwinden. Im Editor sieht alles töfte aus, aber klicke ich dann auf "Antworten", ist das Zitat verschwunden.
Solltest du ein Vollzitat vom Post direkt vor deinem gemacht haben, ist das normal. Dann wird das automatisch entfernt. Ist schon seit ner Weile so.
Ob derjenige trotzdem eine Meldung darüber bekommt, dass du ihn zitieren wolltest, würde mich aber interessieren^^
Ergänzung ()

Mr. Smith schrieb:
In Witcher3 führt es ganz massiv zu Bildfehlern (weisse Lichtblitze am unteren Bildrand, wenn man auf Plötze reitet z.B.)
Nativ sieht es absolut sauber aus und auch ein DLSS2 hat diese Probleme nicht.
Also ich hab jetzt mitllerweile auch wieder ~60 Stunden gespielt, die ganze Zeit mit FG aktiv und mir ist sowas bisher nicht aufgefallen. RT Ultra Preset mit allem Post-Processing außer Lichtstrahlen deaktiviert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Lübke82
Schildbrecher schrieb:
Ach lol, bei Warhammer Darktide ist ein Setting in den Maus-Einstellungen. Es sorgt für mehr Delay!

Dieser Dead-Threshold bei der Maus oder wie das heißt muss von 0.10 auf 0.00!!!!!!!!
Ansonsten die Gegenprobe machen und auf max stellen.
Zer0Strat schrieb:
Wut, so was gibt's? Mal testen... ^^

Ja, absoluter Blödsinn facepalm... fürn Controller macht es ja Sinn, da die Analog-Stick geringfügig zu Beginn bereits verschleißen können.

1672828939819.png

1672828989633.png


Hatte ich schon vor zig Wochen auf 0.00 gestellt.
Dachte mir auch, kann doch net richtig sein.
Aber damit war das Thema Delay für mich gegessen.

Wer keinen Unterschied merkt, ist auch nicht empfindlich, ansonsten mal auf MAX stellen xD
Und ja... in der Mission fühlt es sich besser an als in der 3rd Person auf der Morning Star.
 
  • Gefällt mir
Reaktionen: Zer0Strat
Schildbrecher schrieb:
fürn Controller macht es ja Sinn, da die Analog-Stick geringfügig zu Beginn bereits verschleißen können.
Je nach Maus kann es auch da Sinn machen, eine minimale Totzone zu haben, zumindest in einem First-Person Game, wenn man eine sehr sensible Maus hat und kein "zittern" möchte.
 
Taxxor schrieb:
Also ich hab jetzt mitllerweile auch wieder ~20 Stunden gespielt, die ganze Zeit mit FG aktiv und mir ist sowas bisher nicht aufgefallen.
Tritt auch nur in Kombination mit einer anderen Option auf. Lass mich nicht lügen, war es Motion Blur oder HairMurks?
 
Zer0Strat schrieb:
Motion Blur oder HairMurks?
Gut also für mich nicht tragisch, Motion blur wird eh immer ausgemacht(Außer es gibt Object Motion Blur) und HairWorks speziell in Witcher auch.

Edit: Und ich hab echt ein schlechtes Zeitgefühl, laut Steam sind es ca 60 Stunden seit dem Next-Gen Patch ^^
Ergänzung ()

piccolo85 schrieb:
Klar, die FPS müssen schon vorher passen, sonst wird der Input-Lag unerträglich. Das ist keine Technik um ein Spiel von 40 FPS auf 60 FPS zu heben, sondern um aus 60 FPS butterweiche 100 FPS zu machen.
Also ich nutze es bisher ausschließlich um die FPS von 40 zu limiteren und dann auf 80 zu heben.

Fühlt sich flüssiger an als 60FPS und durch automatische Nutzung von Reflex gibts dadurch auch keinen höheren Input lag, als mit 60FPS ohne Reflex, sprich wenn das unerträglicher Input-Lag sein soll, müsste jeder AMD Nutzer bei 60FPS einen unerträglichen Input-Lag haben^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kommando und Lübke82
Taxxor schrieb:
Also ich nutze es bisher ausschließlich um die FPS von 40 zu limiteren und dann auf 80 zu heben.
Wie funktioniert das? Meine Versuche über den Framerate-Limiter von RTSS waren nicht erfoglreich. Da ist mir a Plague Tale Requiem komplett abgeschmiert beim Versuch auf 80 FPS zu limitieren.

Taxxor schrieb:
Fühlt sich flüssiger an als 60FPS und durch automatische Nutzung von Reflex gibts dadurch auch keinen höheren Input lag, als mit 60FPS ohne Reflex, sprich jeder AMD Nutzer müsste bei 60FPS einen unerträglichen Input-Lag haben^^
Ich benutze ohnehin immer Reflex, wenn es unterstützt wird. In dem Szenario bekommt man dann den Input Lag von 40 FPS. Bei langsamen Controller spielen mag das noch in Ordnung gehen, fällt mir aber schon negativ auf.
 
piccolo85 schrieb:
Wie funktioniert das? Meine Versuche über den Framerate-Limiter von RTSS waren nicht erfoglreich. Da ist mir a Plague Tale Requiem komplett abgeschmiert beim Versuch auf 80 FPS zu limitieren.
Ja, RTSS funktioniert nicht mit FG.
Es gibt 2 Optionen:
1. Ingame FPS Limit, dann wird das was du dort wählst, von FG verdoppelt, also müsste man dort 40 einstellen können, ging in Plague Tale aber nicht, sondern nur 30 oder 60, was mit FG dann zu 60 bzw 120 wird.

60 auf 120 hat mir zu viel verbraucht dafür dass ich keinen Unterschied zu 80 gefühlt habe und 30 auf 60 war zwar deutlich besser als native 30, aber schon merklich unrunder als native 60.

40 auf 80 war für mich der perfekte Setting, dafür hab ich Option 2 genutzt:
Limit direkt über das nvidia Control Panel, hier ist FG inklusive, d.H. wenn du ein 80FPS Limit einstellst, hast du ohne FG 80FPS und mit FG hast du ebenfalls 80FPS

piccolo85 schrieb:
Ich benutze ohnehin immer Reflex, wenn es unterstützt wird. In dem Szenario bekommt man dann den Input Lag von 40 FPS. Bei langsamen Controller spielen mag das noch in Ordnung gehen, fällt mir aber schon negativ auf.
Wie gesagt, AMD Nutzer haben sowas nicht und die kommen ja auch irgendwie mit 60FPS klar^^

FG bei 40FPS hebt den Input Lag auf den von gefühlten 25-30FPS an, Reflex senkt ihn gleichzeitig wieder auf gefühlte 50-60, womit man 80FPS sieht und die Reaktion von 50-60 hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: piccolo85
Syrato schrieb:
Leute, bitte bedenkt, dass es 8 Milliarden Menschen und doppelt so viele Augen gibt. Jede Person kann es anders wahrnehmen auch wenn es z.T. keine Erklärung dafür gibt. (z.B. Phantomschmerzen)
Muss mich entschuldigen. Hab das Game gerade wieder installiert. Ich verwende den ingame Limiter. Das Feeling ist echt mies mit FG enabled. Ich teste jetzt mal den NvCP Limiter.

Update: So, nun mit mit NvCP Limiter sieht es gut aus, bzw. fühlt sich fluffig an. Mit dem ingame Limiter hatte ich übrigens fast 90ms Latenz!

1672832749220.png
 
Zuletzt bearbeitet:
Zer0Strat schrieb:
Das Game braucht die richtige Optimerierung und das kostest Zeit, denn am Ende wird auch wieder gemeckert, wenn es nur auf einer RTX 4090 mit FG einigermaßen flüssig läuft.
Das würde ich ganz klar als Bla Bla einstufen. Man sieht ja an Witcher 3 4.0 sehr gut, was "optimieren" für CDPR bedeutet. Da wird offensichtlich nicht an Optimierung gedacht. FSR2 wurde auch einfach blos reingeklatscht ohne Schärfefilter.
 
Zurück
Oben