Test Nativ vs. DLSS 4.5 vs. FSR AI: Ihr wählt euren Favoriten in sechs Spielen im Blindtest

MorbusGon schrieb:
Ich bin schon gespannt, wie meine Urteile ausfallen werden und welche Technik sich als die für mich Passendere herausstellen wird. 🙂
Darauf sind ja wahrscheinlich alle gespannt, zumindest diejenigen die neutral nach dem Bildeindruck abgestimmt haben und nicht für ihren vermuteten und favorisierten Hersteller.

Mir ist es völlig wurscht ob nun Grün oder Rot, ich habe sowohl DLSS als auch FSR schon im Rechner gehabt und beide Verfahren finde ich immer besser als Nativ mit Wischiwaschifilter und weniger fps.
 
@Iscaran @Tevur

Der Artikel aus der UE den ihr zitiert, widerspricht dem was ich geschrieben habe überhaupt nicht, denn der Bereich, was im TAA / TAAU Schritt passiert, wird dort überhaupt nicht adressiert.

Dass TAA schlechter als DLSS/FSR ist. steht außer Frage, obwohl das selbe Grundprinzip verwendet wird. Der Grund ist, dass es eben nicht ao einfach ist, eine hohe Zahl an Frames miteinander zu verrechnen und dabei nicht massiv Speicher zu verbrauchen, Probleme mit Animationen usw. zu bekommen, weswegen TAA hier sehr stark vereinfacht. Was man auch sieht.

Nochmal die Frage an Euch: Bezweifelt ihr ernsthaft wie das temporale Rendering mit jittering funktioniert? Bezweifelt ihr meine Ausführungen dazu? Und wenn ja, in welcher Weise? Wo irrt sich Eurer Meinung nach die Wikipedia und ich?
 
machts mal halblang
TAA war ne gute Lösung gg. AA-artefakte
und
zusammen mit RIS konnte man schon etliche Texturen/Hintergrundbilder "zurückholen"
 
Zuletzt bearbeitet:
Grestorn schrieb:
CP77 mit oder ohne PT und RR? Das macht einen großen Unterschied für DLSS.
[/QUOTE]

PT ist sehr ähnlich und RR ist mit 4.5 nicht verfügbar. Sobald man den RR Schalter betätigt, fällt man automatisch auf Modell E und das sieht man auch heftig. Habe ich auch nicht gewusst, ist aber definitv so. Also alle von euch die RayReconstruction anschalten spielen gar nicht mit 4.5 vermutlich nicht mal mit 4.

 
  • Gefällt mir
Reaktionen: feris
@Woody17

So ist es. Deswegen habe ich auch nachgefragt.
 
CadillacFan77 schrieb:
Das ist gut, den in der Umfrage ging es ja nicht um die Einordnung (welches Video ist welche Technologie) sondern um den für den betrachter subjektiv besten Eindruck. Technologie unabhängig.

Also nicht das was Du gemacht hast. Finde ich super hast Du deswegen nicht abgestimmt.
Du kannst das nicht sagen, weil es Aspekte gibt die unterschiedlich gut sind.

Als Beispiel nehm ich mal last of us2. Auf weite Entfernung hat das stop Schild die beste Qualität in nativ. Der zaun hingegen ist aber nicht gut in nativ.
Weshalb ich hier natürlich 4.5 oder fsr bevorzuge. Dennoch würde ich einzelne Aspekte des Video bewerten wären es unterschiedliche Ergebnisse.

4.5 hat einfach das beste Bild und das wollte ich auch mit meinem Kommentar davor sagen. Dazu brauch kein zoom in oder zoom out. Du siehst die Technologie auf 1 blick und 4.5 hat nunmal das beste Bild. Sorry das sag ich als amd nutzer.

Wenn es um den subjektiv besten Eindruck gehen würde. Dann hätte man so oder so komplett alle zoom und Verlangsamungs Mechanismen entfernen müssen.

Und nur weil ich die Technologie bestimmt hab, habe ich ja trotzdem eine Meinung und die fällt auf 4.5. ..... ich sagte nicht umsonst das man in allen 3 Bildern unterschiede sieht. Nativ ist mit Abstand das schlechtest bild. Tut mir leid das ich die Technologie bei der Betrachtung des bildes erkennen kann..... man sieht halt einfach unterscheide egal in welchem Zustand. Sei es 100% zoom 400% oder 16%.
Die Technologie bestimmt halt nunmal den Eindruck.

Am ende fällt die Bewertung ja nicht mal richtig aus, weil 90% nach Kommentaren bewertet haben..... das ist natürlich dann eine subjektiv Meinung xd
 
Zuletzt bearbeitet:
Grestorn schrieb:
Dass TAA schlechter als DLSS/FSR ist. steht außer Frage, obwohl das selbe Grundprinzip verwendet wird. Der Grund ist, dass es eben nicht ao einfach ist, eine hohe Zahl an Frames miteinander zu verrechnen und dabei nicht massiv Speicher zu verbrauchen, Probleme mit Animationen usw. zu bekommen, weswegen TAA hier sehr stark vereinfacht. Was man auch sieht.
Nein, der Grund ist, dass DLAA/DLSS per trainiertem neuronale Netwerk arbeitet, TAA aber per händisch erstellten Algorithmus.

Ich krieg hier schon hirnerschütterung vom Kopfschütteln.
 
  • Gefällt mir
Reaktionen: Iscaran
@Tevur Pass auf, dass tut weh :)

Ja, DLSS verwendet auch Tensorkerne und die nennen das auch gerne AI. Dem habe ich ja nie widersprochen. Nur nutzt es das anders, als Du denkst. Eben genau dazu, die aus den gejittert gerenderten Frames gewonnenen Bilddaten zusammenzurechnen, um daraus das optimale Zielbild zu erstellen. Das geht nämlich ohne ein "neuronales Netz" - oder genauer, ohne Tensor-Kerne bzw. deren Äquivalent bei AMD – deutlich schlechter – wie TAA und FSR 3 zeigen.

Ich muss leider sagen, dass Du ein Paradebeispiel von Dunning-Kruger bist. Ich habe ja nun wirklich versucht, meine Aussagen mit Links zu belegen. Und es ist ja auch nicht nur meine Aussage, sondern es sind eigentlich alles ziemlich bekannte Tatsachen – die nur bei manchen Menschen einfach nicht ankommen.

Die glauben lieber an magische KI in den Karten, die Bilder mal eben in Windeseile mit zig FPS aus reduzierten Daten regenerieren – etwas, wozu ausgewachsene KIs normalerweise viele Sekunden brauchen. Aber, mei, was red ich schon, ich hab ja keine Ahnung im Gegensatz zu Tevur ... :D
 
Woody17 schrieb:
Also alle von euch die RayReconstruction anschalten spielen gar nicht mit 4.5 vermutlich nicht mal mit 4.

Nein, RayReconstruction ist etwas völlig eigenes und hat keinen Zusammenhang mit DLSS Super Resolution oder den dort verwendeten Models bzw. Presets.

DLSS RR ist ein komplett eigenständiger Algoritmus für Upsampling und Denoising und hat daher auch komplett eigenständige Presets.
Preset D und Preset E sind bei Ray Reconstruction die Transformer Presets, die im Zuge von DLSS4.0 letztes Jahr hinzugefügt worden sind. Presets A, B und C sind die älteren CNN Models.

Und ja, im Zuge des DLSS4.5 Release gab es kein RayReconstruction Update. Aber wie gesagt, technisch hängt das so oder so nicht zusammen. Man hat zwar bei Super Resolution und RayReconstruction letztes Jahr die Archtektur des AI Models von CNN auf Transformer umgestellt, aber der trainierte Algorithmus und die zugrunde liegenden eigenschaften und funktionen sind komplett separat. RR ist in gleichermaßen ein eigenes Ding, wie es Frame Generation ist. Frame Gen hat nichts mit DLSS Super Resolution zu tun und DLSS RayReconstruction hat ebenso nichts mit Super Resolution zu tun.

Das heißt, immer wenn du in einem Spiel RayReconstruction aktivierst, wird DLSS Super Resolution sowieso vollständig deaktiviert und durch RayReconstruction ersetzt. Die beiden Features arbeiten niemals gleichzeitig. RR hat seinen ganz eigenen, kombinierten Upsampling und Denoising Algorithmus. Eine sogenannte "kompatibilität von DLSS RayReconstruction zu DLSS 4.5 Super Resolution" ist also überhaupt nicht nötig oder möglich und somit auch technisch Unsinn.

Und ja, natürlich kann man sich die Frage stellen, wann denn RR das nächste Update bekommt. Das Problem ist nur, dass Leute durch die Formulierung bzw. Erwartung, dass es mit DLSS4.5 Super Resolution "kompatibel" sein müsste so klingt, als wäre das jetzt irgend ein Versäumnis von Nvidia. Aber das ist es ja gar nicht. Scheinbar nutzt RayReconstruction eh schon das FP8 Format so wie es DLSS4.5 Super Resolution nutzt, was dann auch wieder den größeren Performanceunterschied zwichen Turing/Ampere und Ada/Blackwell erklärt. Weil eben erst ab Ada FP8 Beschleunigung verfügbar ist und auf Turing/Ampere FP8 auf FP16 emuliert wird.

Man könnte es also auch so sehen, dass DLSS4.0 RayReconstruction letztes Jahr durch die Nutzung von FP8 bereits fortschrittlicher und deutlich fordernder war als der DLSS4.0 Super Resolution Algorithmus und man mit DLSS4.5 Super Resolution, welches ja nun ebenfalls auf FP8 setzt nur nachgezogen ist und das Super Resolution Modell auf das gleiche technische Niveau wie RayReconstruction gebracht hat.

Aber am Ende so oder so nur Wortklauberei. Nvidia kann und wird Super Resolution und RR völlig unabhängig voneinander aktualisieren. Es besteht technisch keinerlei Abhängigkeit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Snapuman
Mimir schrieb:
Nein, RayReconstruction ist etwas völlig eigenes und hat keinen Zusammenhang mit DLSS Super Resolution oder den dort verwendeten Models bzw. Presets.
Ich habe auch schon gelesen, dass RR mit dem Transformer Modell kollidiert. Digital Foundry hat ja auch Videos gemacht, bei denen sie nachgewiesen haben, dass bei der Verwendung von DLSS 4.5 RR überflüssig wird.

Und dass RR tatsächlich das Model L und M abschaltet und das klassische CNN Modell erzwingt, habe ich auch schon gelesen. Kann mich aber im Moment nicht mehr an die Quelle erinnern.

https://www.digitalfoundry.net/arti...ss-4s-super-resolution-transformer-technology

https://www.tomshardware.com/pc-com...ctions-almost-perfectly-without-any-denoisers
 
@Tevur Na, immerhin erträglich. Das beruhigt mich ja sehr :)
 
Grestorn schrieb:
Ich habe auch schon gelesen, dass RR mit dem Transformer Modell kollidiert. Digital Foundry hat ja auch Videos gemacht, bei denen sie nachgewiesen haben, dass bei der Verwendung von DLSS 4.5 RR überflüssig wird.

Dass DLSS4.5 SR recht gut denoisen kann ist ein netter Nebeneffekt der sich durch die bessere und robustere temporale rekonstruktion ergibt. DLSS4.5 erreicht eben im wahrsten Sinne ein besseres Signal-to-noise ratio. Wenn die Algorithmen besser werden, werden wir das in Zukunft häufiger sehen. Das ist ganz normal und zu erwarten.

RayReconstruction macht aber sehr viel mehr als denoising. Denn DLSS4.5 SuperResolution kann z.B. niederfrequentes Rauschen nicht erfassen, RayReconstruction schon. RayReconstruciton kann auch RT Effekte wie Schatten und Reflexionen gezielt upsamplen, während DLSS Super Resolution Schatten und Reflexionsdetails nur denoised, aber nicht separat rekonstruiert.


Grestorn schrieb:
Und dass RR tatsächlich das Model L und M abschaltet und das klassische CNN Modell erzwingt, habe ich auch schon gelesen. Kann mich aber im Moment nicht mehr an die Quelle erinnern.

Wie gesagt, RayReconstruction ERSETZT Super Resolution vollständig. Im DLSS Debug Overlay switcht die Anzeige dann von z.B. "Super Resolution Preset M oder L" auf "Ray Reconstruction Preset D oder E".

Du machst gerade den Fehler zu glauben, dass Ray Reconstruction mit Preset D oder E dem CNN Model entsprechen. Das ist aber falsch. Bei Ray Reconstruction sind Preset D und Preset E die Transformer Models.
Bei DLSS Super Resolution gab es ebenfalls Preset D und Preset E. Dort sind es die älteren CNN Models.

Aber nochmal, DLSS Super Resolution und DLSS RayReconstruction sind völlig eigenständig. Du darfst nicht davon ausgehen, dass Preset E bei RayReconstruction ein CNN Model ist, nur weil das bei Super Resolution der Fall war. Die Models werden einfach laufend mit Buchstaben versehen und stehen nicht in Zusammenhang.

Schau dir einfach auf Github die Dokumenation von nvidia an, da kannst du genau nachlesen, was ich gesagt habe. Dort siehst du dass RayReconstruction mit Preset D und E Transformer sind. Bei Super Resolution sind Preset D und E CNN, Preset J und K Transformer 1st gen und Preset L und M Transformer 2nd gen.
 
  • Gefällt mir
Reaktionen: Snapuman und Grestorn
@Grestorn Na, ich lass das zur allgemeinen Belustigung jetzt einfach stehen... du weißt ja, was gemeint ist
 
  • Gefällt mir
Reaktionen: Grestorn
Naja, ich glaub Dir schon, @Mimir

Aber damit bleibt doch Tatsache, dass wenn man RR aktiviert, was ja Super-Resolution ersetzt, damit auch kein Transformer-Modell zum Einsatz kommen kann.

Auch wenn Du das besser beschrieben hast, ist es im Endeffekt dennoch richtig, entweder RR oder Transformer, beides zusammen geht nicht.
Ergänzung ()

Tevur schrieb:
@Grestorn Na, ich lass das zur allgemeinen Belustigung jetzt einfach stehen... du weißt ja, was gemeint ist
Ich kann auch damit leben, dass Du mich als arrogant empfindest. Ich kann das sogar verstehen. Nur wüsste ich ehrlich nicht, was oder wie ich schreiben könnte, ohne diesen Eindruck bei Dir auszulösen.

Aber das ist ok. Nix für ungut. Aber - ohne jetzt wieder arrogant klingen zu wollen - versuch einfach mal zu akzeptieren, dass es auch hin und wieder mal Leute geben könnte, die von irgendeiner bestimmten Sache etwas mehr Ahnung haben als Du selbst.
 
Grestorn schrieb:
Auch wenn Du das besser beschrieben hast, ist es im Endeffekt dennoch richtig, entweder RR oder Transformer, beides zusammen geht nicht.

Du vermischt jetzt völlig unterschiedliche Aspekte.

CNN und Transformer sind grundlegende Architekturen, wie KI Modelle arbeiten und trainiert werden. Wie gesagt, eine Architektur. Also etwas sehr allgemeines und grundlegendes. Aktuelle LLMs wie ChatGPT basieren auch auf der Transformer Architektur.


Wie kommst du also jetzt zu der Annahme dass RayReconstruction nicht mit Transformer funktionieren soll? Ich hab doch gerade gesagt, dass RayReconstruction im Zuge von DLSS4.0 mit den Presets D und E von der CNN auf die Transformer Architektur umgestellt wurde und vermutlich auch das FP8 Datenformat nutzt.

DLSS Super Resolution hat man im Zuge von DLSS4.0 ebenfalls auf die Transformer Architektur umgestellt und FP16 genutzt. Jetzt mit DLSS4.5 hat man DLSS Super Resolution nochmals aktualisiert und nutzt jetzt ebenfalls das FP8 Format.

Stand jetzt ist DLSS RayReconstruction mit Preset D und Preset E ein Transformer basiertes Model welches (vermutlich) FP8 nutzt.
DLSS Super Resolution ist ebenfalls mit Preset J und K ein Transformer basiertes Model und nutzt nun mit Preset L und M FP8.

Du profitierst also in beiden Fällen von der Transformer Architektur, egal ob du DLSS Super Resolution oder RayReconstruction nutzt, weil beide Modelle auf Basis dieser Architektur trainiert wurden.
 
  • Gefällt mir
Reaktionen: Grestorn
Mimir schrieb:
Du vermischt jetzt völlig unterschiedliche Aspekte.

CNN und Transformer sind grundlegende Architekturen, wie KI Modelle arbeiten und trainiert werden. Wie gesagt, eine Architektur. Also etwas sehr allgemeines und grundlegendes. Aktuelle LLMs wie ChatGPT basieren auch auf der Transformer Architektur.


Wie kommst du also jetzt zu der Annahme dass RayReconstruction nicht mit Transformer funktionieren soll? Ich hab doch gerade gesagt, dass RayReconstruction im Zuge von DLSS4.0 mit den Presets D und E von der CNN auf die Transformer Architektur umgestellt wurde und vermutlich auch das FP8 Datenformat nutzt.

DLSS Super Resolution hat man im Zuge von DLSS4.0 ebenfalls auf die Transformer Architektur umgestellt und FP16 genutzt. Jetzt mit DLSS4.5 hat man DLSS Super Resolution nochmals aktualisiert und nutzt jetzt ebenfalls das FP8 Format.

Stand jetzt ist DLSS RayReconstruction mit Preset D und Preset E ein Transformer basiertes Model welches (vermutlich) FP8 nutzt.
DLSS Super Resolution ist ebenfalls mit Preset J und K ein Transformer basiertes Model und nutzt nun mit Preset L und M FP8.

Du profitierst also in beiden Fällen von der Transformer Architektur, egal ob du DLSS Super Resolution oder RayReconstruction nutzt, weil beide Modelle auf Basis dieser Architektur trainiert wurden.
Fakt ist aber auch, dass das Ergebnis mit RR wesentlich schlechter aussieht, insbesondere die Schärfe in der Entfernung und in Bewegung, also z.B. ist die Straße und die vor einem fahrenden Autos ein einziger unscharfer Mist in Cyberpunk in VR das Flimmern der Reflexionen ist allerdings komplett weg. Also egal wie es hochgerechnet wird, es wird nicht gut hochgerechnet.
 
  • Gefällt mir
Reaktionen: Andre83hro
@Woody17

Ja, Ray Reconstruction geht aktuell mit einem vergleichsweise unscharfen Bild einher. Dafür ist aber die Bildstabilität und auch die Beleuchtungsqualität unerreicht. Ray Reconstruction stellt z.B. indirekte Schatten dar, die mit dem Standard Denoiser überhaupt nicht sichtbar wären. In manchen Spielen erzielt man mit RayReconstruction fast schon den Effekt, als hätte man "nochmal" Pathtracing dazugeschaltet.

Ich bin gespannt, ob zukünftige Versionen die Unschärfe weiter reduzieren können, aber grundsätzlich ist das eben ein Problem das in der Natur der Sache ist. Pathtracing erfordert enorm agressives Denoising. Denoising vernichtet dadurch aber ebenfalls feine Bilddetails.

Viele feine Details, hohe Schärfe und starkes Denoising stehen also in einem starkem Widerspruch. Die Kunst wird es also sein das unmögliche möglich zu machen und trotz starkem Pathtracing Denoising ein scharfes und fein detailliertes Bild zu erzeugen. RR ist hier sowieso schon sehr viel besser als der Standard Denoiser. Die Frage ist nur ob man das so weit treiben kann, dass man auch ein wirklich knack scharfes Bild bekommt.

Für Pathtracing bleibt aber RR trotz Unschärfe erste Wahl. Die Pathtraced Spiele sehen ohne RR einfach schrecklich aus und es fehlen wie ich schon sagte massig Beleuchtungsdetails. MMn ist es momentan völlig alternativlos und einfach das beste was wir für pathtracing denoising in echtzeit zur Verfügung haben. Da ist aber noch viel Luft nach oben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grestorn
Aber Grestron hat doch Recht.

Diese Kernaussage ist absolut richtig
Eben genau dazu, die aus den gejittert gerenderten Frames gewonnenen Bilddaten zusammenzurechnen, um daraus das optimale Zielbild zu erstellen.

Stell dir vor, du sprühst mit einer Spraydose gelbe Farbe auf eine Wand. Ob du nun 500 mal kurz sprühst (niedrige Auflösung, oder 250 mal länger sprühst (höhere Auflösung, irgendwann ist die Wand komplett gelb.
Jeder Sprüstoß ist ein gejittertes Bild, was am Ende nach zig Sprühstößen eben die gelbe Wand ergibt.

Oder anderes Beispiel:
Du hast einen imput von 100x100 Pixeln (10.000 Pixel), gejittert werden draus Informationen aus 150x150 Pixel (22.500 Pixel), da das gejitterte Bild um einen halben Pixel versetzt gerendert wird. Mach das mal ca. 50x die Sekunde, was den ungefähren jetzigen Zahlen der Jitterbilder bei Nvidia entspricht.
Da kommen irrsinnige Mengen bei raus.
Das Modell entscheidet nur, was von diesem Datenberg weg kann, um dennoch ein ansprechendes Ergebnis zu liefern. Je besser es trainiert wurde, desto mehr kann in kürzerer Zeit verworfen werden.

Das WIE (DLSS Modell) ist viel entscheidender, als das WOMIT (Pixelinput). Die "Trainingsdaten" der Spieleengine sorgen dafür, das Muster erkannt werden, um effektiver und effizienter arbeiten zu können.
 
  • Gefällt mir
Reaktionen: Nihil Baxxter und Grestorn
Zurück
Oben