Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsNvidia DLSS 4.5: MFG 6×, dynamisches MFG und besseres Super Resolution
@TheInvisible Oder so, ja. Aber selbst dann könnte man viele Deppen noch mit nem Abo melken. Vielleicht sollte ich ja bei Nvidia anfangen und das pitchen. Denke da gibts gleich nen saftigen Bonus und ne Beförderung für diese Idee 😂
Kurz: Reflex greift in die Renderpipeline ein und verarbeitet Inputs frühestmöglich von der Bildrate entkoppelt. Für mehr Details frag einfach ein LLM deiner wahl
Es ist ganz einfach: (M)FG erhöht die Latenz - Reflex senkt sie wieder und Reflex 2 noch weiter.
Nativ (=ohne Reflex) hat am Ende meist ne schlechtere Latenz.
@Siebenschläfer scheinbar kaufen sich einige hier die Spiele nicht zum spielen, sondern um akribisch irgendwelche Fehler zu finden. Und ist auch nur 1 Pixel falsch, ist die Technik gleich Müll.
Einzelne Pixel kann ich auf meinem Display gar nicht erkennen. Hier posten Leute Screenshots, die Super-Sampling nutzen, um irgendwelche Kanten zu glätten. Das ist bei mir kein Thema, weil ich nicht 20 cm vor einem 32"-FHD-TV sitze.
Ich nutze Upscaling mit einem Skalierungsfaktor bis runter auf 0,5, um die GPU ein UHD-Bild mit 60 fps generieren zu lassen. Dieses UHD-Bild sieht dann besser aus, als wenn ich FHD nativ rendern lasse.
Aber ich vergleiche doch schon ohne FG und mit FG beides schon mit Reflex. Bei 50fps ohne FG (aber mit Reflex!) dauert es doch trotzdem 20ms bis der nächste Frame überhaupt erzeugt ist auf dessen Basis überhaupt eine zwischenberechnung erfolgen kann.
Aber vielleicht sollte ich einfach eine LLM fragen die mir das erklärt.
Aber ich vergleiche doch schon ohne FG und mit FG beides schon mit Reflex. Bei 50fps ohne FG (aber mit Reflex!) dauert es doch trotzdem 20ms bis der nächste Frame überhaupt erzeugt ist auf dessen Basis überhaupt eine zwischenberechnung erfolgen kann.
FG muss nicht auf den nächsten Frame warten um mit der Berechnung des Zwischenframes zu beginnen, das ist der Trick.
Programme, die sowas von außerhalb ohne weiteren Input von der Engine machen, wie Lossless Scaling oder auch Nvidias Treibereigenes Smooth Motion, müssen das hingegen, dort ist die Latenz folglich auch deutlich schlechter
Ja aber ich frage ja wie es überhaupt möglich ist dass die Latenz nur um 9ms steigt. Wie gesagt aus echtem Interesse nicht weil ich gegen DLSS bin. (welches ich als upscaler sehr gerne nutze und FG nicht wegen der Latenz nicht nutze sondern wegen der zusätzlichen Artefakte).
Oh ok, ja das macht Sinn auch wenn ich nicht ganz verstehe wie das möglich sein soll. Aber das wäre vielleicht wirklich mal eine Abendlektüre wert. Danke fürs aufklären.
Ähnlich wie auch DLSS SR funktioniert, der Algorithmus bekommt ja Daten wie Motion Vectors etc vom Spiel, d.h. er weiß direkt nach einem Frame bereits, wo sich alles hinbewegt für den nächsten Frame, daraus schätzt er ab wo es dazwischen sein müsste.
Techniken, die diesen Input nicht bekommen, müssen erst auf das nächste Bild warten, beide analysiseren und können dann erst damit beginnen einen Mittelwert daraus zu generieren und sind dann oftmals trotzdem ungenauer weil sie z.B. nicht wissen, in welcher Geschwindigkeit sich etwas bewegt hat in der Zwischenzeit, da wird einfach alles gemittelt.
Preset K: Default preset for DLAA/Balanced/Quality modes. Less expensive performance wise compared to Preset L.
Preset L: Default preset for UltraPerformance mode. Delivers a sharper, more stable image with less ghosting than Preset J, K but are more expensive performance wise. Preset L is peak performant on RTX 40 series GPUs and above.
Preset M: Default preset for Performance mode. Delivers similar image quality improvements as Preset L but closer in speed to Presets J, K. Preset M is peak performant on RTX 40 series GPUs and above.
You can try it yourself. Set preset override to latest and Super Resolution override to Quality and check which preset is being used.
Ja, warum denn nicht. Wenn die Modelle besser werden, die Rechenzeit der zusätzlichen Frames gering ist und die Latenzen verhältnismäßig niedrig, die Eingabe mehr und mehr "entkoppelt" ist, kann man den Brute Force Ansätzen sinnvoll aus dem Weg gehen.
Ein Teil wird immer noch nativ gerendert werden müssen, damit die KI damit arbeiten kann.
Looniversity schrieb:
ist mal der reine Ranz, mit Benutzerfreundlichkeit hat das nichts mehr zu tun. Da konfigurieren sich die Leute schnell Mist zusammen und dann wundert sich NVidia noch, dass das Feature nicht so ankommt wie gewollt.
Könnte man schon immer konfigurieren wie man wollte. Im Spiel wird der beste Modus meist schon nativ angeboten und für Ultra Performance gibt es nun eben eine andere Empfehlung.
Looniversity schrieb:
Stellt euch vor ihr gebt 4000 Euro für eine GPU aus und die liefert euch so einen Käse.
Mit dem neusten Treiber 591.74 der Support für DLSS 4.5 bringt lässt sich schon das Preset M in der Nvidia App forcen also DLSS 4.5. DLSS 4 war bisher immer Preset K. Habs bis jetzt erst in Forza Motorsport getestet dort läuft es aber sehr gut.
@Wolfgang wird Zeit das Computerbase das mal testet