Test DLSS 4.5 & FSR AI vs. Nativ im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich

Tuetensuppe schrieb:
Call of Duty: Black Oops 7 ist mit DLSS total überschärft. Schaut ja gruselig aus, der Schnee besteht aus lauter Mini-Bombentrichtern . Hat wohl, im Gegensatz zu "Nativ", wohl frisch geregnet :D
Zudem sieht man, vor allem bei den Schatten-Abgrenzungen, deutliche "Treppenstufen".
Das, was du bei COD siehst, scheinen die specular Highlights vom Schnee zu sein. Die siehst du übrigens auch bei FSR und auch bei Nativ, nur viel weniger. DLSS 4.5 kann diese als einziges wiederherstellen. FSR schafft dies in viel geringerem Ausmaße und die native Auflösung schafft dies auch mit viel mehr Renderpixel nicht gescheiht.
 
  • Gefällt mir
Reaktionen: Grestorn
Grestorn schrieb:
Leute, die viel besser beleidigen als argumentieren können
Weil ich nach Quellen für die Gegenargumente gefragt habe und selber Quellen zitiert habe oder wie?

Sorry, dass mir 'trust me bro' nicht reicht um meine Meinung zu ändern.

Aber ausgezeichnetes Beispiel von Gaslighting :daumen:
 
  • Gefällt mir
Reaktionen: Andre83hro
Ich finde DLSS 4.5 wirklich super, bei 3 und 3.5 gab es noch ein paar mehr Probleme, schön, dass diese mittlerweile fast verschwunden sind, entlastet vermutlich auch den High-End-GPU-Markt - falls dieser sich nach der Speicherkrise normalisiert.

Zur PS6 schaue ich dann mal, was es so gibt, bis 2028-2029 reicht mir die 4090 locker.
 
Bei manchen Ergebnissen beschleicht mich das Gefühl, dass viele DLSS-Nutzer immer DLSS vorne sehen bzw. ausgewählt haben, auch wenn es vielleicht auf ein Unentschieden oder anders ausgehen würde.

Das wäre die Chance auf einen Blindtest gewesen: Einfach 1,2, und 3 drunter schreiben, ein paar Tage warten und dann auflösen, hinter welcher Zahl, welche Technologie steckt.

Ich bin mir sicher, dass dann das Ergebnis anders aussehen würde :)
 
ElliotAlderson schrieb:
Ich hätte dazu auch gerne eine Erläuterung, weil die Erklärung von @Rickmer schlüssig klingt und mit irgendwas muss das Model ja trainiert werden. Womit also?
Nicht mit Bilddaten aller Szenen aller Spiele. Das macht keinen Sinn.

Wie ich schon sagte, werden sie sicher gezielt auf bestimmte Problemstellen hin trainiert, wo es eben auch Sinn macht, weil der Basis-Algorithmus (also das Zusammenrechnen der gejitterten Einzelbilder) scheitern muss, weil ihm Informationen fehlen. Also z.B. die Behandlung von Okklusion – durchaus an realen Beispielen natürlich.

Oder wie in dem von ihm zitierten Ausschnitt beschrieben, wie z.B. eine konkrete Engine bestimmte Szenen behandelt, also wie daraus Motion-Vektoren berechnet werden und was das für das Bild bedeutet.

Es wird aber auf jeden Fall generisch trainiert und nicht konkret für das Spiel, für das DLSS zum Einsatz kommen soll.

Das würde ja andernfalls sonst bedeuten, dass man immer erst eine "Ground Truth" für jedes einzelne Spiel, für das DLSS rauskommt, "erlernen" müsste. Und dass das nicht der Fall ist, sollte inzwischen klar sein.

Genau an dem Punkt – der Behandlung von Okklusion, Partikeleffekten und anderen Problempunkten von temporalem Upscaling mit Jittering – unterscheiden sich ja TAA, FSR und DSSL. Genau da setzt die AI an.

Die Behauptung, dass alles auf eine "Ground Truth" hin erlernt wird, impliziert auch, dass der Algorithmus Details hinzuerfindet – so wie es eben eine AI macht, wenn man sie beauftragt, ein Bild zu rendern.

Das wird hier auf den DLSS- und FSR-Algorithmus projiziert, das ist aber m.E. grundsätzlich falsch. Bei DLSS werden nicht ständig durch eine AI Bilder generiert, wie manche offensichtlich vermuten. Deswegen ist auch der Trainingsprozess in keiner Weise mit dem zu vergleichen, wie LLMs und AI-Bildgeneratoren arbeiten.

Dieses Beharren auf einer Ground Truth ärgert mich so sehr, weil sie ein Narrativ befeuert, das so einfach nicht stimmt. AI Upscaling = Erfundene Details. NEIN. Die Details sind eben NICHT erfunden.
 
Demon_666 schrieb:
Bei manchen Ergebnissen beschleicht mich das Gefühl, dass viele DLSS-Nutzer immer DLSS vorne sehen bzw. ausgewählt haben, auch wenn es vielleicht auf ein Unentschieden oder anders ausgehen würde.

Das wäre die Chance auf einen Blindtest gewesen: Einfach 1,2, und 3 drunter schreiben, ein paar Tage warten und dann auflösen, hinter welcher Zahl, welche Technologie steckt.

Ich bin mir sicher, dass dann das Ergebnis anders aussehen würde :)
Artikel lesen hilft ✌🏻
 
Grestorn schrieb:
Nicht mit Bilddaten aller Szenen aller Spiele. Das macht keinen Sinn.
Grestorn schrieb:
Es wird aber auf jeden Fall generisch trainiert und nicht konkret für das Spiel, für das DLSS zum Einsatz kommen soll.
Das hat er so auch nicht gesagt.
Ich habe ihn so verstanden, dass schon Spiele als Vorlage zum Training dienen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rickmer und gartenriese
reverend_kane schrieb:
Die Überschärfung betont die Kanten zu sehr und erzeugt mehr oder weniger wahrnehmbare Outlines die dem ganzen so einen Aquarell- / Comic- / Cel-shading-Look geben. Der ist zwar nicht stark aber doch so stark das ich es sofort wahrnehme und im Vergleich zu nativ als unnatürlich empfinde.
Habe das auch so in den Videos gesehen, aber ich musste mir aber auch eingestehen, dass man das nur im direkten Vergleich wahrnimmt.
Es ist ein Game, in Bewegung, und es muss einem gefallen was man sieht. Da steckt viel Subjektivität drin!
Habe jetzt seit 2 Wochen wieder eine Nvidia Grafikkarte, vorher die 9070XT, meine Probleme die ich mit AMD
hatte, sind weg, aber was die Bildqualität angeht kann ich nicht sagen, dass die AMD Karte schlechter war, nicht nur bezogen auf FSR 4.
 
ElliotAlderson schrieb:
Das hat er so auch nicht gesagt.
Ich habe in so verstanden, dass schon Spiele als Vorlage zum Training dienen.
Er spricht von einer "Ground Truth" und das ist genau das. Ich hab mein Posting nochmal überarbeitet, um das klarer herauszustellen.
 
mTw|Marco schrieb:
Artikel lesen hilft ✌🏻
Kommentar verstehen hilft ebenfalls ;) Fakt ist trotzdem, dass es bei diesem Test keinen Blindtest gab.
 
Ein Blick in die Zukunft: DLSS 10.0

GPU sagt: “Gib mir ein paar Pixel je Frame von Game X, z.B. Cyberpunk 2077, und sag mir ob du mit nativer Bildqualität zufrieden bist oder ob ich das Bild im Super Performance Mode verbessern darf? 😉
 
Demon_666 schrieb:
Bei manchen Ergebnissen beschleicht mich das Gefühl, dass viele DLSS-Nutzer immer DLSS vorne sehen bzw. ausgewählt haben, auch wenn es vielleicht auf ein Unentschieden oder anders ausgehen würde.

Ich habe in einem Fall "Native" angeklickt (Outer World 2). Weil ich mir eben tatsächlich bei jedem Spiel die Bilder angeschaut habe und versucht habe, eine objektive Entscheidung zu fällen.

Und gerade bei Outer World ist das Texturen-Shimmering bei beiden Upscaling Verfahren viel zu heftig und bei TAA kaum zu sehen. Das hat für mich den Ausschlag gegeben.

Also nicht immer etwas verallgemeinert postulieren :)
 
  • Gefällt mir
Reaktionen: Demon_666
Grestorn schrieb:
Er spricht von einer "Ground Truth" und das ist genau das.
Die aber ja auch nicht für jedes Spiel vorhanden sein muss, sondern eben einfach unterschieliche Szenen darstellt, an denen der Algorithmus trainiert wird.

Ganz simples Beispiel einfach mal ne Kameradrehung um eine Ecke rum. Da kann man sich jetzt irgendein beliebiges Spiel nehmen und den Algo gegen diese 16K Ground Truth antreten lassen und damit weiter optimieren. Danach ist das aber halt für alle Spiele in denen so eine Situation vorkommt zu gebrauchen
 
  • Gefällt mir
Reaktionen: usmave
Demon_666 schrieb:
Kommentar verstehen hilft ebenfalls ;) Fakt ist trotzdem, dass es bei diesem Test keinen Blindtest gab.
Er kommt doch und wurde angekündigt was genau ist nun deine Kritik? Dass er nicht jetzt kam sondern später?

Deinen Kommentar hat man schon gut verstanden. Er zeigt, dass du den Artikel eben nicht vollständig gelesen hast🤣
 
Taxxor schrieb:
Die aber ja auch nicht für jedes Spiel vorhanden sein muss, sondern eben einfach unterschieliche Szenen darstellt, an denen der Algorithmus trainiert wird.

Ganz simples Beispiel einfach mal ne Kameradrehung um eine Ecke rum. Da kann man sich jetzt irgendein beliebiges Spiel nehmen und den Algo gegen diese 16K Ground Truth antreten lassen und damit weiter optimieren. Danach ist das aber halt für alle Spiele in denen so eine Situation vorkommt zu gebrauchen
Das ist ja auch ok. Aber warum hat er dann meine Erklärungen, wo ich genau diese Art von Training (Okklusion, Bewegung und ja damit auch "Kameradrehung") erklärt habe, immer wieder vehement abgewiesen?

Wenn er das gemeint hätte, hätte er ja auch einfach zustimmen können. Aber er hat darauf bestanden, dass ich Unrecht hätte und dass mit konkreten Daten aller Spiele trainiert werden müsse.

Was ja im Grundprinzip gar nicht geht, weil niemand alle möglichen Szenen aus allen Blickwinkeln in allen Spielen jemals produzieren kann.
 
Grestorn schrieb:
ber er hat darauf bestanden, dass mit konkreten Daten aller Spiele trainiert werden müsse.
Den Satz hab ich aber tatsächlich auch nie von ihm gelesen, wäre schön wenn du da ein Zitat hättest.

Das einzige, was dem irgendwie nahe kommt ist das hier
dass nvidia definitiv (und AMD fast sicher auch) die Upscaler trainiert mit Bilddaten, die deutlich oversampled sind und daher deren 'ground truth' Trainingsdaten deutlich besser aussehen als native gerenderte Bilder.

Die Upscaler werden mit hochaufgelösten Bilddaten trainiert, da steht nichts davon dass jedes Spiel mit den Bilddaten genau dieses Spiels trainiert wird.
Da steht genau genommen nicht mal, dass es zwangsläufig Bilddaten aus realen Spielen sind^^
 
  • Gefällt mir
Reaktionen: Rickmer, Quidproquo77 und ElliotAlderson
Die Abstimmung ist natürlich sehr biased nach dem reißerischen Artikel.
Und kann man das überhaupt sinnvoll anhand eines komprimierten Videos auf meist winzigen Monitoren bewerten?
Werde es mir wohl mal auf dem 8K virtuellen VD 200" Bildschirm mit der Qest 3 reinziehen müssen wenn ich heute Abend die Zeit finde. Denke sowieso, dass es eher für große TV Monitore oder Beamer /VR noch wirklich relevant ist. Aber es gab schon immer auch Leute die z.B. 4K 32" Fernseher gekauft haben und dann 3m davon weg sitzen und sich große Unterschiede mi UHD einbilden.
 
Özil schrieb:
sind die TESTS nur in 4k gemacht worden!!

was ist mit wqdh, ist dlss4.5 performance da auch besser als nativ
Ja dann mach mal. Würde die Ergebnisse gerne sehen. Danke
 
Zurück
Oben