Mimir schrieb:
Ja, es gibt keinen "AA Filter". Das Upscaling und das AntiAliasing sind beides Dinge die sich ganz automatisch aus der Art und weise ergeben, wie der DLSS Algorithmus arbeitet, aber das sind keine dedizierten funktionen oder features sondern es entsteht implizit aus der temporalen rekonstruktion.
Das ist falsch und richtig zugleich.
Ja es gibt bei DLSS keinen "AA-Filter" da er im SS Process integriert ist.
Und nein ein 99% DLSS ist immer noch ein Upscaling ein 100% ist es eben nicht.
Da die Definition von nativ immer heisst Render Resolution = Output Resolution.
Mimir schrieb:
Denn praktisch gibt es weder einen Upscaling Schritt noch einen Anti-Aliasing Schritt. Es wird einfach nur temporales Supersampling in Zielauflösung betrieben.
Oder anders gesagt: DLSS sampled das fertige Bild völlig unabhängig vom niedrig aufgelösten Input. Es gibt kein Upscaling im eigentlichen Sinne und auch kein AntiAliasing im eigentlichen Sinne. DLSS sammelt nur Informationen (Samples) aus vorherigen neidriger aufgelösten Bildern und erstellt daraus ein völlig neues Bild in nativer Auflösung, also in der eingestellten Zielauflösung.
Nicht anderes schrieb ich oben und dennoch ist der "Begriff" native Unsinn wenn man ihn dann nicht auf DLSS 100% = DLAA anwendet.
Das wäre also der eigentliche Vergleich der Sinn macht, denn "native + TAA" ist nunmal ein "schlechterer AA-Post-Processing schritt als der TAAU Schritt im DLAA.
Schau dir nochmal den Unreal Engine Vergleich und das TAAU PDF an damit du über die Wichtigkeit der Unterscheidung dieser beiden "Fakten" verstehst.
Und ja DLAA = "native + AA-Filter" somit...
Ja DLAA != "native" OHNE Postprocessing.
Und DLSS
ist ebenso ein Postprocessing schritt wie z.B. TAA es war/ist.
Das Rendering des aktuellen Frames erfolgt in Auflösung X. DLSS nimmt nun die "archivierten, subsample gejitterten letzten Z-Frames" und "Post-Processed diese nun (inkl. ggf. einem Upscaling-Faktor oder eben
keinem Upscaling Faktor) und erstellt daraus ein "Post-Processed" Bild für die Ausgabe.
Das beste Bild erhält man natürlich mit Down-Sampling -Temporal AA (geht auch mit DLSS wenn der Scale Factor >100% würde).
Dann wäre die "Input-Auflösung ja z.B. 4k, die Ausgabe aber nur FHD (z.B.)
Der Zugewinn an Bildqualität dürfte aber minimal sein, falls überhaupt, da ja das Hauptproblem bei "nicht nativem Rendering" ja immer der Scaling-Schritt zum/auf das Ausgabegerät ist.
Bei Downscaling merkt man die Effekte auch eher seltener als bei Upscaling. Das liegt daran, dass es schon immer einfacher ist beim "verkleinern" von Dingen die unwesentlicheren Bildbestandteile nach und nach wegzulassen, als umgekehrt nicht vorhanden dazu zu erfinden.
Wenn du mir nicht glaubst probiers einfach selbst aus. Lasse DLSS mit z.b. 99% scaling laufen und DLSS mit 100% scaling und mach videos/screenshots.
EDIT: Wenn du mir nicht glaubst, glaubst du vielleicht Valve-Entwicklern:
https://developer.valvesoftware.com...),_DLSS_(and_DLAA),_XeSS_(and_XeSS_Native_AA)
Aside from TAA, modern games also comes with upscaling techniques, which has it's own version of TAA anti-aliasing, but also improves performance by reducing the game resolutions and makes smaller resolution image appear sharper through the use of image upscaling algorithms like
Nvidia's DLSS (
Deep
Learning
Super
Sampling),
AMD's FSR (
FidelityFX
Super
Resolution) and
Intel XeSS (
Xe Super
Sampling).
Depending on the game (but can be also forced through graphics card control panel), the upscaling feature of DLSS, FSR and XeSS can be turn off, leaving the anti-aliasing part, known as Nvidia DLAA (Deep Learning Anti-Aliasing), AMD FSR Native AA and XeSS Native AA enabled. Unlike regular TAA, all 3 techniques are likely to be more stable in motion, and produce slightly sharper image.