Test DLSS 4.5 & FSR AI vs. Nativ im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich

reverend_kane schrieb:
Sorry das so sagen zu müssen aber das ist leider kompletter Unsinn, wenn man aus einem niedrig aufgelösten Bild ein höher aufgelöstes machen will muss man IMMER daten dazuerfinden die vorher nicht da waren. Man kann da nicht auf magische Weise irgendwo versteckte Informationen im Bild selber finden, weil sie schlicht nicht da sind. Ich bin selber im Grafik/3D Bereich beruflich unterwegs und kann über solche Aussagen nur schmunzeln. Damit Upscaling besser aussieht als das Original bist du darauf angewiesen Daten dazuzuerfinden, ansonsten würd es einfach nur größer und unschärfer werden. Die KI macht genau das, sie erfindet basierend auf zuvor erlernten Mustern und Wahrscheinlichkeiten nicht vorhandenen Bildinformationen dazu um es höher aufgelöst aussehen zu lassen, künstliches Nachschärfen gehört da ebenfalls dazu weil erhöhter Kontrast an Kanten die Illusion von mehr Schärfe vorgaukelt. Natürlich ist daran gar nichts, der Prozess ist immer Fehlerbehaftet weil das in der Natur der Sache selber liegt.

Das zauberwort nennt sich supersampling durch temporale akkumulation. Die Szene wird durch leichten kamera jitter in jedem Bild leicht anders abgetastet, wodurch man die sampleanzahl extrem erhöhen kann. Aus diesen Samples wird dann via DLSS oder FSR ein neues Bild in höherer Auflösung zusammengesetzt. Die Samples bzw. Bildinformationen kommen also aus den letzten paar Frames.

AI wird hier "nur" gebraucht, um das ganze auch in bewegung möglich zu machen. Hier muss die AI die richtigen Samples an die richtige Stelle bringen und "kluge" entscheidungen bei der Datenverarbeitung treffen. Aber AI erfindet hier keine Bildinformationen, sie platziert sie nur korrekt.

Wenn du es nicht glaubst, kopier deine und meine aussage in ein beliebiges LLM wie ChatGPT und lass es dir erklären. Kannste was lernen ;)

Das Prinzip an sich ist auch uralt und wird tatsächlich auch in der Fotografie angewendet. Nicht unbedingt für Upscaling sondern zur Optimierung von Details und Rauschunterdrückung bzw. um das Signal to noise ratio zu verbessern. Aber das solltest du ja kennen, wenn du beruflich damit zu tun hast...
 
  • Gefällt mir
Reaktionen: Mumbira, Quidproquo77, ElliotAlderson und 5 andere
Inxession schrieb:
Also Benchmarks zur reinen Vergleichbarkeit der GPU Leistung immer OHNE Upscaler o.ä.
Ich halte das nicht für sonderlich sinnvoll, weil es nicht mehr der Praxis entspricht. Wenn man sieht wie teuer Upsampling ist und wie viel bessere Ergebnisse es mit größeren Modellen erzielen kann, würde ich eher vom Gegenteil ausgehen: Die nächsten GPU-Generationen werden "nativ" kaum mehr an Leistung gewinnen sondern ihren Fokus auf eine Leistungssteigerung der NPUs legen.
 
  • Gefällt mir
Reaktionen: Mumbira und Return2Burn
Spiele nur noch mit DLSS 4.5 balanced preset M. Einfach mal selber an der gleichen Stelle ein Screenshot machen und mit DLSS 4 vergleichen. Die Schärfe bei DLSS 4.5 ist einfach unschlagbar. Endlich kein blurry Mist mehr.
 
Nolag schrieb:
Man sollte dabei berücksichtigen, dass "nativ" hier TAA bedeutet. In Games, die das Deaktivieren von TAA erlauben und man z.B. Downsampling einsetzen kann, lässt sich feststellen, dass TAA nicht die Referenz ist. TAA ist meist deutlich weniger scharf und verschluckt specular Highlights. Das sind ja auch die Gründe warum der FuckTAA Subreddit existiert.
Was ist die Alternative zu TAA? Ja TAA verschluckt auch Details. Aber besonders Fake-Schärfe duch Pixelkanten.
Ergänzung ()

Rickmer schrieb:
Was gerne vergessen wird ist, dass nvidia definitiv (und AMD fast sicher auch) die Upscaler trainiert mit Bilddaten, die deutlich oversampled sind und daher deren 'ground truth' Trainingsdaten deutlich besser aussehen als native gerenderte Bilder.
AI Upscaler werden nicht mit irgendwelchen Bilddaten trainiert. Die Zeiten sind schon sehr lange vorbei. Das hat nur DLSS 1 so gemacht.
 
Inxession schrieb:
Was ich aber nach wie vor schwierig finde ist der Vergleich der GPUs.
Das muss einfach immer Nativ passieren, damit man die Rohleistung der GPUs auch sieht.
Und was bringt mir die Info über die Rohleistung, wenn ich wissen will, was für FPS ich damit in der Praxis bekomme?
Da kann ich auch die TFLOPs im Datenblatt vergleichen, sagt mir genau so viel.

Eine 7900XTX ist z.b. eben absolut nicht vergleichbar mit einer 9070XT, da man mit der 9070XT in der Praxis oft FSR 4 Balanced nutzen kann und damit die gleiche Qualität bekommt wie die 7900XTX, die dafür nativ Rendern muss um nicht allzu viel schlechter auszusehen
 
  • Gefällt mir
Reaktionen: Pro_Bro und Return2Burn
Wolfgang schrieb:
Das sind ja 99,5 Prozent aller neu erscheinenden Spiele. Irgendeine Form von Kantenglättung benötigt man.
Um es mal zu verdeutlichen:
Lieber spiele ich komplett ohne Kantenglättung als mit TAA.

Nativ heißt Nativ und nicht Nativ mit Weichzeichner.
Des weiteren verstehe ich die überspitzte Formulierung die dennoch faktisch Falsch ist.

Das Gros der Titel sind Indietitel und keine AAA(A) Produktionen womit deutlich wird das für euch die umsatzträchtigen Titel relevanter sind.
 
Rickmer schrieb:
Was gerne vergessen wird ist, dass nvidia definitiv (und AMD fast sicher auch) die Upscaler trainiert mit Bilddaten, die deutlich oversampled sind und daher deren 'ground truth' Trainingsdaten deutlich besser aussehen als native gerenderte Bilder.

Damit ist dann auch erklärt, warum die Upsampler überhaupt fähig sind, besser aussehen zu können als nativ gerendert.
Noch jemand, der seit 2020 keine Technikartikel zu DLSS mehr verfolgt hat und glaubt das Prinzip von DLSS 1.0 findet heute noch irgendwo Anwendung?

Warum sie besser als nativ aussehen können wurde schon ewig geklärt und wird auch in den Kommentarspalten solcher News immer wieder aufs Neue geklärt weil manche es nach wie vor nicht schaffen, sich zu informieren.
Dabei gibts doch extra nen schönen CB Artikel dazu
 
  • Gefällt mir
Reaktionen: BeowulfAgate und Grestorn
NoNameNoHonor schrieb:
Also ohne Nativ als Quelle für DLSS/FSR geht es ja wohl gar nicht, oder?
Für niedrige Auflösungen sehe ich tatsächlich einen Qualitätsgewinn, für höhere Auflösungen (ab WQHD) ist der Gewinn fast Null, bei 4K sehe ich überhaupt keinen Unterschied.
Vielleicht gibt es ja welche, die meinen, die KI soll am Besten das komplette Bild ausrechnen, nativ braucht man gar nichts mehr?
Letztlich nutzt Upscaling ja nur die gerenderten Daten, aber eben halt mehr nur ein Frame, was den großen Unterschied macht. Wo TAA und "native" nur immer ein Bild nutzt, nutzt DLSS und FSR einige zig aufeinanderfolgende, gejitterte Frames um eine deutlich höhere Detaildichte (trotz der geringeren Originalauflösung) rauszuholen.
 
KarlsruheArgus schrieb:
Lieber spiele ich komplett ohne Kantenglättung als mit TAA.
Dann tauschst du Unschärfe gegen Flimmern, mit DLSS hast du halt keines von beiden^^
Ergänzung ()

NoNameNoHonor schrieb:
Für niedrige Auflösungen sehe ich tatsächlich einen Qualitätsgewinn, für höhere Auflösungen (ab WQHD) ist der Gewinn fast Null, bei 4K sehe ich überhaupt keinen Unterschied.
Es geht ja nicht nur um einen Qualitätsgewinn.

Gerade in 4K ist DLSS Performance ja in der Lage, mit 1080p Renderauflösung die gleiche Qualität zu liefern, wie TAA, das aber bei einem Bruchteil der Leistungskosten.

Je weiter runter man mit der Zielauflösung geht, desto schwerer hat es DLSS, die Qualität oben zu halten und desto weniger Performance bringt es gleichzeitig auch, insofern wird der Nutzen mit steigender Auflösung immer größer
 
  • Gefällt mir
Reaktionen: ElliotAlderson
KarlsruheArgus schrieb:
Um es mal zu verdeutlichen:
Lieber spiele ich komplett ohne Kantenglättung als mit TAA.

Nativ heißt Nativ und nicht Nativ mit Weichzeichner.
Des weiteren verstehe ich die überspitzte Formulierung die dennoch faktisch Falsch ist.

Das Gros der Titel sind Indietitel und keine AAA(A) Produktionen womit deutlich wird das für euch die umsatzträchtigen Titel relevanter sind.
Aber nutzen kleine Indie-Produktionen nicht auch primär TAA? Die mit der UE4/5 gemacht sind sicherlich schon. Und zumindest die neueren mit Unity auch, denke ich mal. Aber ja, bei Indie-Spielen wissen viele sicherlich mehr als ich.
 
  • Gefällt mir
Reaktionen: ElliotAlderson und Grestorn
@Wolgang & @Mimir
Ok, war mir nicht bewusst das da Sub-Pixel-Jittering verwendet wird, mein Fehler. Das ist in der Tat ein relativ altes Prinzip was auch bei Kamera-Sensoren verwendet wird um die Auflösung zu erhöhen. Trotzdem wirkt es auf mich leicht überschärft und ich kann mich nur schwer damit anfreunden ...
 
Nolag schrieb:
Meine Erfahrungen sind völlig anders. Mir sind aber fehlerhafte Downsampling Implementierungen bekannt, die lediglich eine einstufige Skalierung durchführen wie z.B. in PCSX2. Die Fangzeune in vielen Racing Games, bekommt man nach meiner Erfahrung z.B. nur mit Downsampling halbwegs korrekt und ruhig dargestellt. Alle temporalen Verfahren versagen dort bisher.
Downsampling ist unfassbar teuer und bringt verglichen mit einem temporalen Algorithmus auf gejitterten Frames vergleichbar wenig Detail-Gewinn.

Ja, man hat keine Occlusion-Artefakte und die Bewegungsstabilität ist besser. Andererseits ist das auch genau das Problem: In Bewegung hast Du mit Downsampling immer noch heftige Aliasing Effekte (die höhere Auflösung machen sie nur kleiner, lassen sie aber nicht verschwinden).

Im Großen und Ganzen ist Downsampling die Kosten einfach nicht wert. Schon gar nicht bei modernen Spielen, wo man die Grafikleistung liebe in andere Effekte steckt.
 
  • Gefällt mir
Reaktionen: Quidproquo77
n8mahr schrieb:
wäre schön, wenn das irgendwann mal in allen Spielen funktioniert und ohne großes Geklicke in den Optionen einstellbar ist.
schätze, viele (außerhalb von CB und ähnlichen Blasen) wissen gar nicht, was das ist, wie man das einstellt etc.

geht ja schon los, dass ich, egal welche gpu verbaut ist, xess, dlss und fsr in verschiedenen Versionen angeboten bekomme..WENN ein Spiel das unterstützt.
Wo ist das Problem? DLSS oder FSR einschalten und gut ist. Das reicht für die allermeisten völlig aus. Nur wer das letzte Quäntchen an Qualität rausholen will, optimiert über den Treiber.

Und da macht es gerade NVidia den Usern sehr leicht, wenn sie die App nur machen lassen. Aber das ist ja auch verpönt. Also einfach ist nicht gewollt, weil man keine Kontrolle hat, und Kontrolle ist nicht gewollt, weil es ja so kompliziert ist :)
 
reverend_kane schrieb:
Trotzdem wirkt es auf mich leicht überschärft und ich kann mich nur schwer damit anfreunden ...
Wie schon mehrfach erwähnt, liegt das nun an den Spielen selbst, die bisher immer die schärfe hochgedreht haben, um die Unschärfe von TAA, FSR 2+3, DLSS 2+3 auszugleichen.
Das beißt sich nun halt, wo DLSS 4.5 diese Unschärfe nicht mehr hat
 
  • Gefällt mir
Reaktionen: reverend_kane
rollmoped schrieb:
Da sehe ich auch das große Problem bei Upscaling. Die hinzuerfundenen Texturdetails sehen zwar relativ stimmig aus, und deshalb sind einige der Meinung, dass Upsampling besser aussieht.

WIe oft denn noch: ES WIRD NICHTS DAZUERFUNDEN!

Die Details sind da, native kann sie wegen dem Pixelraster nicht erfassen, sie kommen durch das der Upscaling Verfahren Jittering zum Vorschein.
 
  • Gefällt mir
Reaktionen: ElliotAlderson und Taxxor
Wow welch ein wahnsinnig aussagekräftiger Test der selbst die letzten Zweifler ins Grübeln bringen muss. Ich stand selbst der Technik auch selbst kritisch entgegen, nutze aber immer FSR4 wenn möglich in Quality. Gut zu wissen das ich Performance ebenfalls ohne Bedenken nutzen kann für mehr FPS. Zum Test muss ich DLSS 4.5 in allen Spielen den Vorrang geben außer in TLOU da gefallen mir Joels Haare so gar nicht.
 
  • Gefällt mir
Reaktionen: BeowulfAgate, Quidproquo77, ElliotAlderson und eine weitere Person
reverend_kane schrieb:
Was einmal weg ist, bleibt weg. Da wird nichts zurückgeholt, es wird etwas dazuerfunden basierend auf Interpolation, Wahrscheinlichkeit und Schätzung. Genau so sieht es auch aus, viele haben sich scheinbar an diesen unnatürlichen Look gewöhnt und bevorzugen ihn, jeder wie er mag, für mich ist es aber nix.
Temporale Methoden und Jittering. Informier Dich bitte, bevor Du, wie so viele immer wieder, weiter falsche Tatsachen verbreitest.
 
Danke für die Antworten @Taxxor und @Wolfgang.
Ich wusste es einfach nicht.
 
  • Gefällt mir
Reaktionen: Micha_80
rollmoped schrieb:
Man kann es aber nicht "zurückholen". Das neuronale Netzwerk nimmt das niedriger aufgelöste Bild und errät anhand dessen, wie das hochaufgelöste Bild aussehen soll. Somit ist ein mit Deep Learning upgescaltes Bild niemals identisch mit dem nativen.
Nein. Falsch. Bitte keine falschen Fakten wiederholen. Danke.
 
Zurück
Oben