N0FX schrieb:
@Grestorn: Hast du dazu mal ein paar Links, das klingt echt interessant und wusste ich bislang noch gar nicht.
Der
Wikipedia artikel zu DLSS ist eine erste hilfreiche Anlaufstelle:
It can also be used as a simpler TAA implementation where the image is rendered at 100% resolution, rather than being upsampled by DLSS, Nvidia brands this as
DLAA (Deep Learning Anti-Aliasing)
Es gibt auch einen separaten
Artikel zu DLAA selbst:
While
DLSS handles upscaling with a focus on performance, DLAA handles anti-aliasing with a focus on visual quality. DLAA runs at the given screen resolution
with no upscaling or downscaling functionality provided by DLAA.
DLSS and DLAA share the same AI-driven anti-aliasing method.
As such, DLAA functions like DLSS
without the upscaling part.
Das entscheidende ist eben hier, dass man nicht ein "künstlich" in kleinerer Auflösung gerendertes Bild nimmt, sondern sozusagen "nur" den Temporalen AA-Filter der basierend auf den Vergangenen Frames + Motion Vectors + Metadata usw. + "Neuronales Network" via Tensor Cores ein besseren AA-Filter über das "in nativer Auflösung" gerenderte Bild legt.
DLAA ist sozusagen ein TAA auf Steroiden - weil es dank der wesentlich besseren Umsetzung via Tensor cores deutlich besser filtert....thats it. nVidia selbst nennt das wenn ich nicht irre TAAU.
Lies das hier, falls du damit umgehen kannst:
http://behindthepixels.io/assets/files/DLSS2.0.pdf
Und das hier ist auch hilfreich:
http://behindthepixels.io/assets/files/TemporalAA.pdf
Beides ist jedenfalls deutlich genauer als Grestorns Aussagen.
Und ein 100% "nativ" Rendering mit DLAA ist eben nicht einfach dasselbe wie ein "Upsampling + DLAA"
Hier am Beispiel der Unreal engine erklärt:
https://dev.epicgames.com/documenta...cale-in-unreal-engine?application_version=5.6
Was man hier im Bildvergleich noch testen könnte wäre ein "nativ" komplett ohne einen AA-Filter vs mit AA-Filter...aber was hier besser ist, dürfte trivial sein.
Nativ im Sinne der Definition des Wortest ist immer Renderingauflösung (A) = Ausgabeauflösung (B).
Ist A > B hat man Downsampling
Ist B > A hat man Upsampling
DLSS ist nun "temporales Upsampling" (immer kombiniert mit dem temporalen Anti-aliasing, weil es nunmal für das Verfahren automatisch mit enthalten ist). Wenn A < B
DLAA ist
temporales (Up)sampling wenn A = B
(EDIT: Das UP-sampling bezieht sich hier nur auf das temporale Zusammenrechnen vergangener "Pixel".)
Ganz einfach. Deswegen ist ein DLAA Bild auch immer quasi "Artefaktfrei" - wenn auch die Zahl der Artefakte bei DLSS dank der Tensor cores und des Verfahrens bei nicht allzu großen Upscalingfaktoren und hinreichend temporalen Frames ziemlich gering sind.
Das ist keine Magie, das ist Mathematik.
Die Antworten die dieser Test hier liefert ist wieviel von dieser "Mathematik" kann man (du) sehen und wieviel "Mathematik" kann man weglassen (=mehr FPS durch "Upscaling") bevor man es sieht.
Diese Grenze ist aber individuell verschieden und hängt noch von weiteren Faktoren ab (ein paar wurden ja genannt wie z.B. Windows scaling, player scaling, ein anderer Faktor ist auch das Display selbst. Und noch viele mehr.
EDIT: Nachtrag:
Im Wikipedia artikel ist es eigentlich hinreichend präzise mit einfachen Worten beschrieben:
DLSS requires and applies its own
anti-aliasing method. ...
It operates on similar principles to
TAA.
Like TAA, it uses information from past frames to produce the current frame. Unlike TAA, DLSS does not sample every pixel in every frame. Instead, it samples different pixels in different frames and uses pixels sampled in past frames to fill in the unsampled pixels in the current frame. DLSS uses machine learning to combine samples in the current frame and past frames,
and it can be thought of as an advanced and superior TAA implementation made possible by the available tensor cores.
Nvidia also offers
Deep Learning Anti-Aliasing (DLAA),
which provides the same AI-driven anti-aliasing DLSS uses,
but without any upscaling or downscaling.