Test DLSS 4.5 & FSR AI vs. Nativ im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich

@Taxxor
Ja klar, das ist mir schon bewusst, ich hatte meinen Punkt bereits ohne ChatGPT klargemacht.

Grüne Wiese, perfekte Engine und DLSS 4.5. Welchen nutzen hat DLSS 4.5 generell? Performance gewinn bei minimalen optischen Einbussen.

Die Aussage DLSS 4.5 sieht besser aus als nativ stimmt nur, wenn die Engine nicht gut optimiert ist. Das ist nicht allgemein wahr! Mit DLSS 4.5 hast du natürlich immer mehr Frames bei zu vernachlässigenden optischen Einbussen, aber die Aussage DLSS 4.5 sieht besser aus als Nativ ist falsch.
 
  • Gefällt mir
Reaktionen: Iscaran und Andre83hro
R4nd0 schrieb:
Die Aussage DLSS 4.5 sieht besser aus als nativ stimmt nur, wenn die Engine nicht gut optimiert ist.
Dann gibt es demnach wohl schlicht keine gut optimierte Engine, Anti Aliasing benötigen sie alle und die Alternative zu DLSS ist in modernen Spielen immer TAA.
 
  • Gefällt mir
Reaktionen: Grestorn, ElliotAlderson und gartenriese
Taxxor schrieb:
Dann gibt es schlicht keine gut optimierte Engine,Anti Aliasing benötigen sie alle und die Alternative zu DLSS ist in modernen Spielen immer TAA.
Ja genau, gibt es leider eher selten. Jonathan Blow und sein Team fällt mir gerade als positives Beispiel ein.

Überspitzt sagt der Artikel eigentlich folgendes:"Wir präsentieren ihnen eine Auswahl an schlecht optimierten Spielen/Engines, die dank DLSS 4.5 und FSR 4 besser aussehen als natives Rendering"

Das Problem ist, wenn alle denken temporal upscaler seien sowieso besser als natives Rendering, weshalb sollte sich noch jemand Mühe machen, wenn die Graka Hersteller "die Probleme" fixen? Das ist ein äusserst schlechter Trend in meinen Augen.

Im schlimmsten Falle wird eine top Engine/Spiel gebaut und es gibt keine Möglichkeit temporal upscaler einzuschalten und die Masse regt sich über fehlendes DLSS auf.
 
  • Gefällt mir
Reaktionen: Iscaran und Andre83hro
Auch bei einer sehr gut optimierten Engine wird das Super Sampling bessere Ergebnisse liefern. Einfach weil mehr Bildinformationen zur Verfügung stehen.

Was eventuell noch durchgehend besser aussehen könnte wäre spacial super sampling z.B. von 8k.
 
  • Gefällt mir
Reaktionen: Grestorn und usmave
STM64 schrieb:
Zumindest laut NVIDIAs eigener Dokumentation tut DLSS SR dies nicht.

http://behindthepixels.io/assets/files/DLSS2.0.pdf

Der machine learning Algorithmus zur Mustererkennung wird nur für das Auflösen von Kollisionen genutzt. Also welches von den überlagerten Pixeln jetzt noch Teil der Stromleitung ist und welches der Pixel eigentlich zur Wiese im Hintergrund gehört. Der Algorithmus sortiert dann die Pixel die zur Wiese gehören aus und nur die Leitung bleibt. Neue Pixel werden dadurch jedoch nicht generiert.

Das ganze nennt sich neighborhood clamping und kommt z.B. auch schon länger bei Kameras zum Einsatz, wo das Bild auch durch temporales jittering super sampled wird. Aus der Ecke (Satelliten- und Flugzeugfotos) kommt die Technik ursprünglich.

Problem hierbei ist die Entscheidung, was an den Pixeln weg kann und was gut ist. Da gibt es auch klassische heuristiken wie sie seit 50 Jahren eingesetzt werden. Die haben jedoch alle ziemliche Probleme mit fehlerhafter Klassifizierung was weg kann.

https://www.sciencedirect.com/science/article/abs/pii/S092427162030277X?via=ihub

Da sind ML basierte klassifizierer besser, aber auch rechenintensiver.
Das Nvidia PDF ist ein ganz schöner Brocken und zudem behandelt es DLSS 2.0, ist also stark veraltet.

Laut PDF nutzte aber selbst DLSS SR 2.0 bereits Deep Learning Reconstruction (nicht zu verwechseln mit Ray Reconstruction). Der Begriff Reconstruction taucht in dem Dokument 15 Mal auf.

Es werden eben doch neue, wahrscheinlich korrekte Pixel erzeugt, um aus einem niedrig aufgelösten Bild ein höher aufgelöstes Bild zu erzeugen. Eigentlich ist der Begriff "Reconstruction" schon ziemlich eindeutig. Es wird wieder aufgebaut, was nicht mehr vorhanden ist, bzw. NEU erschaffen, ggfs. ohne das ursprünglich Dagewesene überhaupt exakt zu kennen, indem vom Vorhandenen (temporal, spatial und eben gelernte Muster bzw. Deep Learning) abgeleitet und damit interpoliert wird.
 
Ich bin auf den "Blind test" gespannt darauf warte ich schon länger.

Bitte aber deaktiviert in 4k doch einfach TAA, bringt eh nichts mehr. Oder zumindest bietet 4k-nativ und 4k-"nativ mit TAA" an als Modi.

Ansonsten stimme ich hier komplett R4nd0 in #321 zu.
 
mario_mendel34 schrieb:
Upscaling ist das simple Hochskalieren eines fertigen Frames mit irgendeinem Filter. Das haben DLSS 1 und FSR 1 so gemacht. Sah beides kacke aus. Upsampling hingegen errechnet aufwändiger das finale Bild. Computerbase spricht bei DLSS und FSR immer von Upsampling, nicht von Upscaling. Weil es halt kein Upscaling ist.😉
Hochskalieren hat nichts mit Filter zu tun. Ein 1080p Video in ein 2160p skaliert, fügt dem Video nicht mehr Kontrast, nicht mehr Schärfe, nicht mehr Klarheit zu. Das Video hat nur mehr Pixel und ist grösser. In etwa, als wenn man aus einer mp3 eine dts draus macht.
Hier werden offensichtlich zusätzliche Filter angewandt, die überhaupt nichts mit Hochskalierung gemein haben. Man kann, wenn man will, aus einem 1080p Video, per Filter, deutlich bessere Ergebnisse rausholen, als wenn man es einfach zu 4k hochskaliert.
Am Ende zählen aber die Spiele an sich, die man spielen kann. In den letzten 2 Jahren kamen nicht mal ein halbes Dutzend raus. Remake, Remaster, Early Access oder speziell für Konsolen.

Ich persönlich hätte gern ein Nachweis, ob es zwischen XeSS 1 und 2 einen Unterschied gibt. Auch Computerbase ist darauf, nicht mal im Ansatz, je darauf eingegangen. Kein Bock mehr, von den Besitzern der RTX 5080 und 5090 was zu lesen. Mann, die Karten kosten mehr, als die meisten Rechner weltweit.
 
Grestorn schrieb:
Wenn das neuronale Netz tatsächlich Details erfinden müsste, also echt Bilddaten selbst aufgrund der Trainingsdaten erstellen sollte, dann müsste es auch lokal laufen. Wie soll es sonst funktionieren?

Ich denke, Du hast das Grundprinzip eines neuronalen Netzes nicht verstanden. Wenn Du ChatGPT verwendest, sprichst Du mit einer riesigen Online-Version.

Du kannst auch lokale LLMs und Bildgeneratoren auf Deinem PC installieren, wenn Du gute Hardware hast. Aber dann musst Du auch richtige Daten (eben das neuronale Netz) runterladen und viel Speicher und Rechenleistung haben. Und die Leistungsfähigkeit bleibt massiv hinter den Online-Versionen zurück.

DLSS funktioniert aber eben ganz anders. Mit einem eher kleinen Netz, das sehr viel gezielter auf bestimmte Problemfelder trainiert worden ist, und deswegen auch klein bleibt und auch auf einer RTX 2060 noch gut funktioniert.
Der Prozess ist doch so: Beim Training werden gigantische Mengen an Bildmaterial und Motion Vectors und was weiß ich genommen um dann das fertige Modell rauszubekommen. Da sind dann aber die ganzen Bilddaten logischerweise nicht mehr drin. Und die dll hat dann auch eine handliche Größe. Das Modell weiß dann wie man aus einem kleinen Bild (bzw. viele temporal zusammenhängende) und Motion Vectors ein großes Bild generieren kann. Und im Spiel bekommt es eben genau diese Daten und kann daraus ein größeres Bild generieren. Und wieso genau bedeutet jetzt dieses "generieren" nicht das gleiche wie "erfinden"? Also was ist da der semantische Unterschied?
 
R4nd0 schrieb:
Die Aussage DLSS 4.5 sieht besser aus als nativ stimmt nur, wenn die Engine nicht gut optimiert ist.
Gibt es dafür eine Definition (was bedeutet nativ genau? Wo muss beim Post Processing dafür der Cut gemacht werden?) und einen visuellen Beweis in Form eines Spiels oder ist das reines Theory Crafting?

Days Gone ist dafür ein schlechtes Beispiel. Das ist in dem von Dir verlinkten Video mit TAA super unscharf und ohne super unruhig. DLSS wird gar nicht unterstützt oder? Das ist ein ziemlicher Äpfel mit Birnen Vergleich.

Wenn ich weiß, was "nativ" bedeutet und das gut optimierte Spiel mit eigenen Augen sehe, dass DLSS 4.5 sauber implementiert hat und ohne trotzdem besser aussieht, glaube ich es vielleicht sogar.

Ändert dann aber auch nichts daran, dass wir uns nicht aussuchen können, wie Entwickler ihre Spiele umsetzen und wenn ich die Wahl zwischen nicht optimal ohne DLSS 4.5 und nicht optimal mit DLSS 4.5 habe, wähle ich immer die zweite Option.
 
  • Gefällt mir
Reaktionen: Grestorn und gartenriese
gartenriese schrieb:
Und wieso genau bedeutet jetzt dieses "generieren" nicht das gleiche wie "erfinden"? Also was ist da der semantische Unterschied?
Erfinden bedeutet es kommen Informationen ins Bild die nicht vom Spiel kommen, keine Grundlage haben, eben frei erfunden sind.
Generieren bedeutet erst mal nur, dass etwas Neues erzeugt wird, das kann frei erfunden sein, es kann aber genau so gut anhand von vorliegenden Informationen erzeugt werden.

DLSS schafft aus einem Pool an real vom Spiel verfügbaren Informationen ein fertiges Bild. Hier wird nichts erfunden, im Gegenteil, das was dort passiert ist ja genau umgekehrt, die nicht benötigten Infos werden verworfen und die relevanten behalten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grestorn
Taxxor schrieb:
Erfinden bedeutet es kommen Informationen ins Bild die nicht vom Spiel kommen, keine Grundlage haben, eben frei erfunden sind.
Neee, von frei erfunden war doch gar nicht die Rede. "erfinden" != "frei erfinden", Du Schlingel! :D
Der Trick bei DLSS SR ist ja gerade, dass die Informationen eben zumindest indirekt doch vom Spiel stammen. Nur eben nicht unbedingt explizit, sondern schlüssig abgeleitet.
 
  • Gefällt mir
Reaktionen: Rickmer und gartenriese
Taxxor schrieb:
Erfinden bedeutet es kommen Informationen ins Bild die nicht vom Spiel kommen, keine Grundlage haben, eben frei erfunden sind.
Generieren bedeutet erst mal nur, dass etwas Neues erzeugt wird, das kann frei erfunden sein, es kann aber genau so gut anhand von vorliegenden Informationen erzeugt werden.

DLSS schafft aus einem Pool an real vom Spiel verfügbaren Informationen ein fertiges Bild. Hier wird nichts erfunden, im Gegenteil, das was dort passiert ist ja genau umgekehrt, die nicht benötigten Infos werden verworfen und die relevanten behalten.
Wie @Lexor-tm sagt, ich meine nicht frei erfinden. Vielleicht ist "schätzen" ein besserer Begriff als "erfinden"? Ich versuch mich mal an einem Vergleich. Die Aufgabe ist es herauszufinden, wie viele Personen in einer Stadt leben. "Erfinden" wäre hier einfach mal ins blaue hinein eine Zahl zu nennen. Da geb ich dir total Recht, das macht DLSS nicht. "Wissen" wäre in irgendeiner Datenbank nachzusehen, wie viele Personen dort leben. Das macht DLSS auch nicht. "Berechnen" wäre zum Beispiel wenn man jedes Haus durchgeht und aufs Klingelschild guckt wer da wohnt und das dann zusammenzählt oder so. Macht DLSS meiner Meinung nach auch nicht. "Schätzen" wäre dann zu sagen, okay, es gibt so und so viele Straßen die sind ungefähr so lange und ich habe gelernt dass statistisch gesehen alle x Meter ein Haus kommt und anhand der Grundfläche und Höhe kommen durchschnittlich soviel Haushalte zusammen und laut Bundesamt wohnen so und so viel Personen in einem Haushalt. Das passt meiner Meinung nach am besten zu DLSS, oder?
 
Mimir schrieb:
Der Typ ist ein selbstgefälliger schwurbler und Betrüger mit sehr viel Halbwissen.
Das Problem ist, dass es für technisch interessierte Laien plausibel wirkt und einige (scheinbar Hobby-)Devs die dagegen argumentiert haben, inhaltlich schwach bis falsch darststanden, was wiederum von dem Kanal aufgegriffen wurde, um generell alle "Hater" zu diffamieren.
Wie du schon sagtest, er hat Halbwissen, ist also nicht komplett Ahnungslos. Manches von dem was er sagt, ist verifizierbar korrekt. Und ein gewisses Maß an Optimierung der Produktionskosten und Geschwindigkeit zu Lasten der Laufzeitperformance ist auch nicht von der Hand zu weisen. (zB Microstutter in Jedi-Survivors könnte ziemlich sicher besser sein, wenn man nur genug wollte). Ich bin als Hobbyist wie viele leider auch nicht firm genug um mit Sicherheit zu sagen, wie relevant die von dem Kanal verbreiteten (halb-)Wahrheiten sind. Seine Aussagen zu BRDFs zB wirkten auf mich plausibel. Auf der anderen Seite hat er, soweit ich mich erinnern kann, nicht erwähnt, das Oren-Nayar mehr perf kostet. Ob die perf kosten das Ergebnis wert währen, kann ich nicht beurteilen.
Im Grunde müsste ein Dev von dem Kaliber eines John Carmack kommen, um den Kanal einzustufen. Anders wird die Allgemeinheit einer Einstufung der Glaubwürdigkeit kaum folgen. Argument from Authority funktioniert (leider) oft am besten. (Außer wenn es um Verschwörungstheorien geht).
 
  • Gefällt mir
Reaktionen: gartenriese
Krazee schrieb:
Es ist gar nicht so lange her, da hab ich auch wieder Kommentare gelesen, wieso mit 720p getestet wird (CPU-test). Da fragst dich auch noch 20+Jahren oder noch mehr... bzw. greifst dir an den Kopf. Vielleicht ists auch nur low level trolling kA.
Bezogen auf die CPU-Tests ist das wahrscheinlich eine Mischung aus Unkenntnis und dann auch gerne Trollen. Aber wenn es um Upsampling und die "Fake-Frame-Debatte" geht, spielt auch viel Frust eine Rolle. Wenn man etwas länger schon dabei ist, merkt man die Teuerung der GPUs und gleichzeitig vermitteln einem Techniken wie DLSS und FSR den Eindruck, man hätte selbst mit den teuersten Karten gar nicht genug Leistung im Rechner, um "nativ" (was auch immer das dann bedeuten soll) zu zocken. Nüchtern betrachtet, ist es letztlich auch nur Kantenglättung auf technisch anspruchsvollerem Niveau.
 
gartenriese schrieb:
"Schätzen" wäre dann zu sagen, okay, es gibt so und so viele Straßen die sind ungefähr so lange und ich habe gelernt dass statistisch gesehen alle x Meter ein Haus kommt und anhand der Grundfläche und Höhe kommen durchschnittlich soviel Haushalte zusammen und laut Bundesamt wohnen so und so viel Personen in einem Haushalt. Das passt meiner Meinung nach am besten zu DLSS, oder?
Das beschreibt den Deep Learning Teil von DLSS recht treffend, ja. Aussagen aufgrund von statistischen Korrelationen, wie bei so ziemlich allen modernen KI Systemen.

Das macht den Begriff "erfinden" aber nicht falsch. Er ist nur etwas unscharf. Rekonstruieren (wie es von Nvidia selbst genannt wird), generieren oder erzeugen würde ich vorziehen.
 
  • Gefällt mir
Reaktionen: Grestorn und gartenriese
Lexor-tm schrieb:
Das macht den Begriff "erfinden" aber nicht falsch. Er ist nur etwas unscharf. Rekonstruieren (wie es von Nvidia selbst genannt wird), generieren oder erzeugen würde ich vorziehen.
Da ist nichts unscharf... "Erfinden" bedeutet wortwörtlich, etwas zu schaffen, was vorher noch nicht da war. An so einem Prozess beteiligen sich weder DLSS noch FSR. Das Bild, was angezeigt wird, ist eine Kombination aus Bildinformationen, die vorher schon da waren. Sowas ähnliches gibt's in der Bildbearbeitung schon seit Jahrzehnten, nennt sich "Stacking" und funktioniert komplett ohne KI. Man bekommt ein detaillierteres Bild durch die Addition von Einzelbildern. KI hebt das nur auf das nächste Level, indem nicht mit dem Bild selbst, sondern den Informationen, die zur Erstellung des Bildes führen, gearbeitet wird.
 
  • Gefällt mir
Reaktionen: Taxxor
R4nd0 schrieb:
Diese YouTube Channels? Ich habe dir einen Engine Dev verlinkt, möchtest du nicht von intelligenten und fähigen Menschen lernen die wirklich von ihrer Materie Bescheid Wissen?
TI aka Kevin ist kein Engineentwickler. Der hat in seinem Leben keine einzige Zeile Code selbst geschrieben, aber faszinierend, dass gebildete erwachsene Menschen wie du einem Kind solchen Quatsch abkaufen.
 
  • Gefällt mir
Reaktionen: Grestorn und gartenriese
Boimler schrieb:
Da ist nichts unscharf... "Erfinden" bedeutet wortwörtlich, etwas zu schaffen, was vorher noch nicht da war. An so einem Prozess beteiligen sich weder DLSS noch FSR. Das Bild, was angezeigt wird, ist eine Kombination aus Bildinformationen, die vorher schon da waren. Sowas ähnliches gibt's in der Bildbearbeitung schon seit Jahrzehnten, nennt sich "Stacking" und funktioniert komplett ohne KI. Man bekommt ein detaillierteres Bild durch die Addition von Einzelbildern. KI hebt das nur auf das nächste Level, indem nicht mit dem Bild selbst, sondern den Informationen, die zur Erstellung des Bildes führen, gearbeitet wird.
Aber es wird ja was erstellt, was vorher nicht da war. Es ist ja eben nicht reines Stacking. Es ist korrekt, dass nicht irgend was frei erfunden wird, aber es wird trotzdem ein Pixel gefüllt, der vorher nicht gefüllt war.
 
Zurück
Oben