Test Nativ vs. DLSS 4.5 vs. FSR AI: Ihr wählt euren Favoriten in sechs Spielen im Blindtest

Grestorn schrieb:
Nein, DLAA ist nicht native. Und nein, DLSS Q ist nicht automatisch schlechter, weil Upscaling. Der Gedankengang ist schlicht falsch.
Doch das ist genau so faktisch richtig.

Nur weil du das nicht wahrnimmst, ist die Realität nicht wiedewie sie dir gefällt, Pipi Langstrumpf!

Da kannst du noch so energisch deinen Native-Warrior-Strohmann boxen.
 
  • Gefällt mir
Reaktionen: Andre83hro
Tevur schrieb:
Doch das ist genau so faktisch richtig.
Gut, dass Du die Fakten so gut verstanden hast :)

Ich weiß nicht, was ich noch machen muss, um in die Köpfe zu kriegen, dass das Verrechnen mehrerer optimal gejitterter Frames auf dasselbe Ergebnis rauskommt, wie klassisches Supersampling.

Also habe ich bei 67% Renderauflösung schon nach ganz wenigen Frames eine sehr viel höhere Detailauflösung als bei einem einfach gerenderten native Bild. Nach 10+ Frames in DLSS Q habe ich z.B. im Prinzip dieselbe Detailauflösung wie bei 6,7-fach Supersampling (10 x 0,67).

Bei DLAA ist der einzige Vorteil, dass man dafür eben weniger Frames braucht. Also nur 7 Frames statt deren 10, um denselben Detailgrad zu erreichen.

Bei einem statischen Bild, das muss man hier immer dazusagen, sonst stimmt es freilich nicht.

(Daran denken, dass Supersampling immer im Quadrat angegeben wird. Also doppelte Supersampling-Auflösung in x- und y-Achse gibt ein 4xSS).
 
  • Gefällt mir
Reaktionen: ElliotAlderson, Kommando, _Cassini_ und 3 andere
Grestorn schrieb:
Nach 10+ Frames in DLSS Q habe ich z.B. im Prinzip dieselbe Detailauflösung wie bei 6,7-fach Supersampling (10 x 0,67).
Einfach nur nein.
Temporal angesammelte Daten werden niemals an die gleiche "Detailauflösung" herankommen, wie ein einziges/statisches Bild mit Supersampling. Wie soll das auch gehen, bei unterschiedlichen Bildern?


Edit: ok, der Dislamer am Ende war bei einem "statischen Bild" - sollte wohl zuerst zuende lesen.
Edit #2: dadurch ändert sich aber nicht die Auflösung. DLAA appliziert ein wenig zusätzliche "Magie" auf der nativen Auflösung (ob die Magie sich dabei über mehrere Frames kumuliert ist doch irrelevant). DLAA = nativ.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran
Wo bin ich hier schrieb:
Edit #2: dadurch ändert sich aber nicht die Auflösung. DLAA appliziert ein wenig zusätzliche "Magie" auf der nativen Auflösung. DLAA = nativ.
Doch, die DETAILauflösung ändert sich dadurch. Das ist die Magie des gejitterten Renderings.

Hast Du verinnerlicht, was das bedeutet?

Warum ein Bild zweimal gerendert – wobei beim zweiten Rendering um eine halbe Pixelbreite versetzt gerendert wird –, man dieselbe Detailauflösung rausbekommt, wie wenn das gleiche Bild einmal, aber dafür mit doppelter Auflösung (und dann wieder linear runterskaliert, also dem klassischen SS-Verfahren) gerendert hätte?
 
Zuletzt bearbeitet:
DLAA ist also nicht "native" im Sinne von "nativ gerendertes Bild + AA Filter". Hinter DLAA steckt der gleiche Algorithmus wie hinter DLSS, es wird in jedem Fall mittels KI ein Bild "rekonstruiert". Aus mehreren leicht gegeneinander veschobenen Einzelbildern. Bei DLAA ist der Unterschied, dass die Frames mit denen der Algorithmus gefüttert wird, in der gleichen Auflösung gerendert sind, wie die Zielauflösung. AA ist weder in DLSS noch DLAA ein "Extra" sondern inhärent.

Mal sehr grob vereinfacht gefragt: 4 UHD Pixel sind 1 FHD Pixel. Sagen wir mal ich habe eine senkrechte Stromleitung im bewegten Bild, die ist genau zwei UHD Pixel hoch. Dann sehe ich die in UHD in jedem Frame, in FHD hingegen, sehe ich die nicht in jedem Frame. Ich brauche eine Bewegung, mehre zueinander versetzte Frames, um an die "Information" zu gelangen, dass da eine Stromleitung ist. Je mehr zueinander versetzte Frames ich "sammle" desto mehr Informationen erhalte ich. In DLAA müssen weniger Frames gesammelt werden als in DLSS um die gleiche Informatonsfülle zu erhalten.

Habe ich das im Ansatz richtig verstanden?

Und würde die besagte 2 UHD Pixel hohe Stromleitung in 4K mit DLSS Performance (also FHD als Renderauflösung) auch ohne Kamerabewegung sichtbar werden (weil der Algorithmus die Frames auch ohne Kamerabewegung leicht versetzt) oder muss hier eine Kamerabewegung erfolgen, damit die Leitung sichtbar wird?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grestorn
@Nihil Baxxter

Du hast es exakt erfasst. Diese "Bewegung" von der Du schreibst, ist das "Jittering".
Eine Kamerabewegung ist dafür nicht nötig. Das macht der Algorithmus intern, da wie gesagt, jedes Frame minimal versetzt gerendert wird.

Um wie viel versetzt wird, ist natürlich eine Kunst. Es ist immer weniger als die Breite bzw. Höhe eines Renderpixels natürlich (hier sind Pixel der Renderauflösung gemeint, nicht Pixel der Ausgabeauflösung). Aber man muss dafür statistisch optimale Werte finden, um möglichst schnell möglichst viele Details zu erfassen.

Wenn man genau 4 Frames rendert und das Bild statisch ist, wäre es ganz einfach: jeweils um eine halbe Pixelbreite versetzen (einmal ohne Versatz, einmal nur x um eine halbe Pixelbreite, einmal nur y, einmal beide Achsen). Dadurch hast Du dasselbe exakte Ergebnis wie 4x Supersampling.

Aber deine Beschreibung ist auf den Punkt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson, Snapuman, angHell und eine weitere Person
@N0FX

https://en.wikipedia.org/wiki/Deep_Learning_Super_Sampling#DLSS_2.0

"DLSS 2.0 is a temporal anti-aliasing upsampling (TAAU) implementation, using data from previous frames extensively through sub-pixel jittering to resolve fine detail and reduce aliasing. "

https://en.wikipedia.org/wiki/Temporal_anti-aliasing

"Each pixel is sampled at a slightly different position each frame, which is achieved by adding a 2D offset to each frame, a "jitter" that shifts the image by a fraction of the size of a pixel, horizontally and vertically. The jitter changes each frame, following a pattern (such as a Halton sequence) so that every point in the image is sampled evenly over time.

Old frames are blended into the current frame, accumulating historical rendering data, approaching the result of supersampling over time. Changes to the scene—such as moving objects, camera motion, or changes in lighting—often mean that the history for any given pixel may be somewhere else on screen, be invalid, or may not exist at all. Failure to account for these changes results in ghosting."


Das grundlegende Verfahren ist tatsächlich dasselbe wie bei TAA, nur dass DLSS einfach viel besser bei der Verrechnung der Bilddaten ist. Aber die eigentliche Kunst, bei der dann auch das neuronale Netz und die Tensorkerne zum Einsatz kommen, ist das Beheben der Probleme, die bei Animation und Bewegung entstehen, bei denen das klassische temporale Anti-Aliasing einfach grundsätzlich scheitert. Beim üblichen native TAA scheint man dies einfach durch ein Blurring zu kaschieren.
 
  • Gefällt mir
Reaktionen: Nihil Baxxter und Snapuman
Fleischiyufka schrieb:
Also ich hab den test nun endlich gemacht, weil ich etwas Zeit gefunden habe.

Dennoch hab ich etwas anders bewertet als andere. Ich hab das Video NICHT abgepspielt und anstatt zoom in zoom out benutzt. Sprich maximale entfernung(ich hab zwar mit zoom out bewertet, aber mit zoom in mich selbst korriegiert). Die Vergleichsvideos angeschaut hab ich nicht, nur andhand des ersten Bilds bewertet.
Nativ hebt sich ganz deutlich ab, genauso wie sich DLSS abhebt(teils aber nicht so stark wie erwartet).
Weshalb ich das ganz dann ganz simple nach ausschlussverfahren eingeordnet habe.
Nach der Bewertung muss ich auch sagen durch Side by Side lässt sich das ganze sooooo einfach einordnen, fast schon zu einfach. Interessant wäre gewesen, ein 5 Sekunden Ausschnitt nacheinander und ohne mögliche wiederholung. Genauso sollten zooms in jeglicher Art weggelassen werden.

Abgestimmt hab ich erst gar nicht sondern mir das hier auf nem A3 block aufgeschrieben, der liegt eh dauerhaft vor der Tastatur, da ich oft notizen nebenher mache zu iwas. Ich will die Ergebnisse der Diagramme bis zur Auflösung nicht sehen...... hab 1 schon ausversehen gesehen.
Das ist gut, den in der Umfrage ging es ja nicht um die Einordnung (welches Video ist welche Technologie) sondern um den für den betrachter subjektiv besten Eindruck. Technologie unabhängig.

Also nicht das was Du gemacht hast. Finde ich super hast Du deswegen nicht abgestimmt.
 
N0FX schrieb:
@Grestorn: Hast du dazu mal ein paar Links, das klingt echt interessant und wusste ich bislang noch gar nicht.
Der Wikipedia artikel zu DLSS ist eine erste hilfreiche Anlaufstelle:
It can also be used as a simpler TAA implementation where the image is rendered at 100% resolution, rather than being upsampled by DLSS, Nvidia brands this as DLAA (Deep Learning Anti-Aliasing)

Es gibt auch einen separaten Artikel zu DLAA selbst:

While DLSS handles upscaling with a focus on performance, DLAA handles anti-aliasing with a focus on visual quality. DLAA runs at the given screen resolution with no upscaling or downscaling functionality provided by DLAA.
DLSS and DLAA share the same AI-driven anti-aliasing method. As such, DLAA functions like DLSS without the upscaling part.
Das entscheidende ist eben hier, dass man nicht ein "künstlich" in kleinerer Auflösung gerendertes Bild nimmt, sondern sozusagen "nur" den Temporalen AA-Filter der basierend auf den Vergangenen Frames + Motion Vectors + Metadata usw. + "Neuronales Network" via Tensor Cores ein besseren AA-Filter über das "in nativer Auflösung" gerenderte Bild legt.

DLAA ist sozusagen ein TAA auf Steroiden - weil es dank der wesentlich besseren Umsetzung via Tensor cores deutlich besser filtert....thats it. nVidia selbst nennt das wenn ich nicht irre TAAU.

Lies das hier, falls du damit umgehen kannst:
http://behindthepixels.io/assets/files/DLSS2.0.pdf

Und das hier ist auch hilfreich: http://behindthepixels.io/assets/files/TemporalAA.pdf

Beides ist jedenfalls deutlich genauer als Grestorns Aussagen.

Und ein 100% "nativ" Rendering mit DLAA ist eben nicht einfach dasselbe wie ein "Upsampling + DLAA"
Hier am Beispiel der Unreal engine erklärt:
https://dev.epicgames.com/documenta...cale-in-unreal-engine?application_version=5.6

Was man hier im Bildvergleich noch testen könnte wäre ein "nativ" komplett ohne einen AA-Filter vs mit AA-Filter...aber was hier besser ist, dürfte trivial sein.

Nativ im Sinne der Definition des Wortest ist immer Renderingauflösung (A) = Ausgabeauflösung (B).

Ist A > B hat man Downsampling
Ist B > A hat man Upsampling
DLSS ist nun "temporales Upsampling" (immer kombiniert mit dem temporalen Anti-aliasing, weil es nunmal für das Verfahren automatisch mit enthalten ist). Wenn A < B
DLAA ist temporales (Up)sampling wenn A = B
(EDIT: Das UP-sampling bezieht sich hier nur auf das temporale Zusammenrechnen vergangener "Pixel".)

Ganz einfach. Deswegen ist ein DLAA Bild auch immer quasi "Artefaktfrei" - wenn auch die Zahl der Artefakte bei DLSS dank der Tensor cores und des Verfahrens bei nicht allzu großen Upscalingfaktoren und hinreichend temporalen Frames ziemlich gering sind.

Das ist keine Magie, das ist Mathematik.

Die Antworten die dieser Test hier liefert ist wieviel von dieser "Mathematik" kann man (du) sehen und wieviel "Mathematik" kann man weglassen (=mehr FPS durch "Upscaling") bevor man es sieht.

Diese Grenze ist aber individuell verschieden und hängt noch von weiteren Faktoren ab (ein paar wurden ja genannt wie z.B. Windows scaling, player scaling, ein anderer Faktor ist auch das Display selbst. Und noch viele mehr.

EDIT: Nachtrag:

Im Wikipedia artikel ist es eigentlich hinreichend präzise mit einfachen Worten beschrieben:

DLSS requires and applies its own anti-aliasing method. ...
It operates on similar principles to TAA. Like TAA, it uses information from past frames to produce the current frame. Unlike TAA, DLSS does not sample every pixel in every frame. Instead, it samples different pixels in different frames and uses pixels sampled in past frames to fill in the unsampled pixels in the current frame. DLSS uses machine learning to combine samples in the current frame and past frames, and it can be thought of as an advanced and superior TAA implementation made possible by the available tensor cores.
Nvidia also offers Deep Learning Anti-Aliasing (DLAA), which provides the same AI-driven anti-aliasing DLSS uses, but without any upscaling or downscaling.
 
Zuletzt bearbeitet: (Einige Fehler im Text ausgebessert.)
  • Gefällt mir
Reaktionen: A.Xander, N0FX, Andre83hro und 2 andere
Sehr cooler Blindtest. Ich empfinde die Unterschiede als sehr gering und für mich machen somit beide upsampling Varianten einen sehr guten Job. Sehe daher keinen Grund etwas nativ laufen zu lassen und geringeres Flimmern ist für mich ein Hauptentscheidungsgrund.
 
  • Gefällt mir
Reaktionen: Alphanerd, Kommando, MaverickM und 3 andere
Außer in Satisfactory stimme ich gar nicht mit der Mehrheit der Community überein.

Hab den Blindtest mit Sohn zusammen gemacht.

Bin gespannt!
 
Artikel-Update: Letzte Erinnerung: Die Teilnahme am großen Leser-Blindtest ist nur noch bis kommenden Montag um 12 Uhr möglich – eine weitere Verlängerung wird es nicht geben.
 
  • Gefällt mir
Reaktionen: angHell und A.Xander
Iscaran schrieb:
Nichts anderes schreib ich doch. Dennoch ist es halt Unsinn zu sagen "DLSS4.5" schlägt "native", da man "native" hierzu erstmal definieren sollte.

Renderauflösung + TAA ist "nicht native" sondern "native + AA Filter".
Nativ bedeutet interne Auflösung = Ausgabeauflösung. Wenn es nur TAA, DLSS, FSR und XeSS gibt, was willste dann anderes testen? Komplett ohne AA gibts in den meisten Fällen eben nicht.
 
  • Gefällt mir
Reaktionen: Grestorn
Vielen Dank für den erneuten Axxxxtritt. Habe den "Test" endlich durchgeführt.
Vor allem aber vielen Dank für die Mühe und den Aufwand.

Auf die Ergebnisse bin ich gespannt. Ich glaube, ich lag nur 1x bei der Mehrheit ...
:mussweg:
 
  • Gefällt mir
Reaktionen: Jan
ElliotAlderson schrieb:
Nativ bedeutet interne Auflösung = Ausgabeauflösung. Wenn es nur TAA, DLSS, FSR und XeSS gibt, was willste dann anderes testen?
DLSS, FSR und XeSS in nativer Auflösung eben, zumindest bei NVIDIA ist es auch egal ob das Spiel das anbietet, man kann es ja im Treiber einfach auf DLAA stellen.

Das Argument DLAA ist nicht nativ weil ja supersampling dadurch betrieben wird, dass man die Infos aus mehreren Frames hat, zieht doch auch nicht wirklich, da das TAA doch auch tut, nur eben weniger effizient.
Dann dürfte man TAA auch nicht mehr nativ nennen.

DLSS vs Nativ kann eben auch heißen DLSS vs DLAA.


Für mich ist es für einen Vergleich aber genau wie beim Thema FG und Reflex:
Ohne DLSS würde ein Spiel auch kein DLAA bieten, die Baseline bleibt also TAA weil das in 99% der Fälle die AA Option ist die man hat.
Von dort aus kann ich jetzt DLAA nutzen und ein besseres Bild(120%) sowie etwas weniger FPS(90%) bekommen, oder ich nutze DLSS Quality und bekomme ein immer noch besseres Bild(115%) aber deutlich mehr FPS(130%).

Daher stellt sich die Frage nach DLAA für mich gar nicht, da auch DLSS bereits viel besser ist als der vorherige Standard und die optischen Unterschiede zwischen den beiden besseren Optionen viel zu gering sind, als dass ich 10% FPS liegen lassen würde statt mir 30% zu holen
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: N0Thing, BeowulfAgate und Fika
Sehr schön dann gibt es ja bald das Ergebnis, bin schon gespannt. Auch wenn ich oft Unterschiede in allen drei Bildern gesehen habe, muss ich doch sagen das es immer eine knappe Sache zwischen 2 versionen war.
Beim spielen würde es mir oft kaum auffallen.
Bin mal gespannt wieviele Teilnehmer noch dazukommen und ob es wirklich immer der selbe Modus war, den ich rausgekickt habe.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Von dort aus kann ich jetzt DLAA nutzen und ein besseres Bild(120%) sowie etwas weniger FPS(90%) bekommen, oder ich nutze DLSS Quality und bekomme ein immer noch besseres Bild(115%) aber deutlich mehr FPS(130%).
Wenn DLAA in 4k nur 10% an Leistung kosten wurde, dann wäre das eine praktikable Lösung und die Diskussion, ob 4k nativ mit DLAA sein sollte, hätte eine Daseinsberechtigung.
In der Praxis kostet DLAA in 4k eher so 50-60% an fps und ist daher selbst mit einer RTX5090 bei neuen Titeln keine echte Option, außer man will mit ~30-40fps spielen. Selbst ein paar Jahre alten Spiele aus den DLSS2 Anfangstagen schaffen mit DLAA (mit den DLSS4.5 dlls) in 4k gerade mal so 60fps locked (120 mit 2xFG) auf meiner neuen RTX5080 @ 3.2GHz OC/UV.
 
ragnarok666 schrieb:
In der Praxis kostet DLAA in 4k eher so 50-60% an fps
Wut? In UWQHD sehe ich bei mir ~10% ggü TAA.
50-60% weniger wäre wohl eher DLAA vs DLSS Performance

Auf die Schnelle hier mal ein Vergleich von PCGH in Diablo4, die 4090 mit DLSS Balanced, dann mit TAA und dann mit DLAA
IMG_4666.jpeg


Hier verliert DLAA exakt 10% ggü TAA
 
Zuletzt bearbeitet:
Ich habe übrigens bei einem Spiel auf "Ich kann keinen Unterschied erkennen" geklickt, obwohl ich Nativ+TAA sehr wohl erkannt habe, aber zw den beiden hochskalierten Videos keinen nennenswerten Unterschied gesehen habe. Für den Fall gibt es leider keine Antwortmöglichkeit.

@Wolfgang ich bin dafür, künftig in jedem getesteten Spiel die Vergleichsvideos nicht zu beschriften und eine solche Umfrage durchzuführen.
 
  • Gefällt mir
Reaktionen: Kommando
Zurück
Oben