Pontus schrieb:Habe an dem Blindtest nicht teilgenommen. Ich frage mich aber immer, WIESO die Native schlechter aussieht. Könnte das Native Bild besser oder genauso gut aussehen, wenn sich die Entwickler mehr mühe geben würden?
Echtes "native" sieht nicht schlechter aus - allerdings generieren diverse Post-Processing Verfahren Artefakte bzw. sind nicht in der Lage die Artefakte die durch das "Rasterisierte Rendering" entstehenden Artefakte einer "nicht-unendlich hohen Auflösung = Realität" entstehen zu korrigieren.
Im Test lief ja auch "natives Rendering mit TAA" gegen ein Verfahren das ein besseres TAA enthält + virtueller Bildrekonstruktion um daraus ein "weniger Artefakte" enthaltendes "hübsches, perfektes, Bild" zu erstellen.
TheInvisible schrieb:Nur weil mit Q Upscaling getestet wurde, bei B oder gar P würde es noch eindeutiger richtung Nvidia schwingen. Bei UP außer Konkurrenz. Aber ja, man bezahlt was man dafür bekommt.
Wie der Algo bzw das KI Modell intern funktioniert weiß nur Nvidia. Sicher ist nur, man gibt Bildinformationen + Parameter rein und bekommt und höher aufgelöstes Bild raus. Das KI im Einsatz ist haben schon diverse Forenmember mit dem Tool Nsight bewiesen da die Tensor Kerne ausgelastet wurden.
Nein. P würde DLSS noch schlechter dastehen da zunehmend mehr Artefakte auftauchen...Mit Preset F, würde NIEMAND mehr DLSS wählen (ok ein paar vermutlich doch, weil die Unterschiede am Ende halt immer noch "gering" sind und "subjektiv")
Bregor schrieb:Soweit ich es verstehe:
Das DLSS-Model wurde trainiert, indem man low-res und high-res Bilder auf Basis eines Bildes zur Verfügung stellt. Das daraus entstehende Model läuft auf der GPU. Dann gibt man die gerenderten low-res Bilder und Motion Vektoren als Daten in den das Model und hinten kommt dann das Ergebnis diverser Matrizenrechnungen raus, welche super schnell auf den Tensor Kernen laufen. Dieses Ergebnis ist halt ein neues Bild in höherer Auflösung. So wie es gelernt wurde.
DLSS rendert kein neues Bild im klassischen Sinne.
adfsrg hat das ja dankenswerter Weise mit Grestorn schon gut herausgearbeit.Bregor schrieb:Ich spreche ja auch nicht von "direkt einem Spiel", sondern verallgemeinert wurde dem Model beigebracht, was es zu tun hat. Wie sonst soll es funktionieren? Es bekommt mehrere Bilder und Motion Daten und so und erzeugt daraus ein neues Bild in höherer Auflösung. Es rendert kein neues Bild in höherer Auflösung, sonst würde ja die Renderpipeline statt der Tensor Cores benutzt werden.
Aber noch besser ist eigentlich das Dokument das oben verlinkt wurde
Hier wird von nVidia selbst 100% eindeutig gezeigt, dass DLSS ein "Post-Rendering" Process ist.
Allerdings greift dieser (so wie TAA und andere Effekte) auch in die Art und Weise WIE gerendert wird ein, via Sub-Pixel Jittering. Allerdings nur minimal. Der Haupteffekt von DLSS ist die Bild-REKONSTRUKTION mittels super-angepasstem, super-spezial TNN, das man zudem noch mit einem "Vortrainierten" Algorithmus füttert den dieses TNN nur noch "optimal" anzuwenden hat. Das ganze läuft dann im VRAM der GPU und brauch ca 500 MB und etwa 1-10 ms pro "Bild" das vorne REIN geht und dann mit den temporalen Daten + Motion Vectors + "TNN" auf die Zielauflösung skaliert wird also "generiert" wird (da es ja ein RE-Konstruktions Verfahren ist).
Und wie gut, dass wir im vorherigen Thread noch Seitenlang dazu spekulieren mussten - wobei ich allerdings auch gelernt habe das das Sub-Pixel Jittering in der Tat TROTZ dem Post-Processing TAA effekt schon vorne in der Renderpipeline stattfindet (und das schon seit man TAA erfunden hat noch ganz OHNE DLSS).
Aber zum Glück hat endlich mal einer einen Link zu einer nVidia Dokumentation dazu hier gepostet. Sehr interessante Lektüre btw.
Womit wir nun zum subjektiven Teil kommen.CadillacFan77 schrieb:Es gibt eigentlich nur 2 Möglichkeiten:
Da würde ich widersprechen. DLSS is absolut brauchbar - es ist sogar sehr gut. Und auch FSR4 ist absolut brauchbar.
- der Unterschied zwischen DLSS, FSR und TAA wird als sehr gross wahrgenommen. Dann gefällt aber über 50% der Leute der DLSS Stil nicht und somit haben sie was Anderes gewählt.
- der Unterschied zwischen DLSS, FSR und TAA ist nicht so gross wie teilweise behauptet, darum haben 50% der Leute Schwierigkeiten, das nachweislich "beste" Bild überhaupt zu erkennen.
In der Tat...ich selbst habe nur 1x mit der Mehrheit abgestimmt, und das war ausgerechnet das eine mal in Satisfactory für DLSS :-).
2x nativ/TAA
2x FSR
1x kein Unterschied
1x DLSS
Das spricht auch in meiner subjektiven Welt klar für Option 2. Irgendwie stören mich die DLSS-Artefakte beim Video ansehen am Ende mehr als die Artefakte der anderen Verfahren.
Ich hab die Videos vor meiner Stimmenwertung aber auch nur insgesamt 4x abgespielt und in x1 und ohne Zoom um einmal das Video1, einmal Video2 einmal Video3 und dann alle gleichzeitig aus etwas größerem Sichtabstand (um keine Augenbewegung zwischen den Videos machen zu müssen).
@Wolfgang
VIELEN DANK! Für diesen Blindtest! Hervorragende Idee bitte ÖFTER sowas!.
Nur als Denkanstoß: Könntet ihr einen "Blindtest" machen mit FHD (oder WQHD oder 4k) DLAA vs DLSS(Quality) (ggf. noch um vs FSR4-AA (also "FSR native") erweitert.