Bericht Leser-Blindtest 2026: Die Community sieht DLSS 4.5 klar vor FSR und Nativ + TAA

Taxxor schrieb:
nicht "ganze Bilder per KI"
Doch. Wenn du meinst, es wären nicht ganze Bilder, dann sag konkret welche Pixel nicht durch KI generiert wurden. Am besten erklärst du noch, wie du dir vorstellst, dass nur Teile des Bildes per KI generiert wurden, dann kann man dir vielleicht erklären, wo genau du falsch liegst.
 
  • Gefällt mir
Reaktionen: Andre83hro
Grestorn schrieb:
Es wird in einer niedrigen Auflösung gerendert, aber immer wieder und mit Kamera-Jitter. Wodurch die fehlenden Details restauriert werden.

Das Jittern und die Menge der Renderings restaurieren die Details. Nicht eine AI.

Und das ist wohl nicht ganz korrekt. Die "AI" in Form des Trainierten Neuronalen Netzes (Ein Transformer Model welches auf der Karte ausgeführt läuft mit hilfe der Tensor Cores) wertet scheinbar diese gefundenen jitter Pixel aus und berechnet daraus ein Bild welches dem der gewünschten Auflösung am nächsten kommt.
 
  • Gefällt mir
Reaktionen: jdiv, Iscaran und Andre83hro
adfsrg schrieb:
Am besten erklärst du noch, wie du dir vorstellst, dass nur Teile des Bildes per KI generiert wurden, dann kann man dir vielleicht erklären, wo genau du falsch liegst.
Es wurden überhaupt keine Teile per KI generiert, das ist der Punkt.

Alle Teile des Bildes bestehen aus Informationen die von der Spielengine selbst kommen, das Bild ist genau so "generiert" wie ein TAA Bild auch, denn TAA(U) macht im Grundprinzip nichts anderes als DLSS, nur halt deutlich ineffizienter, weshalb es mehr Daten benötigt und daher nicht in niedrigerer Auflösung arbeiten kann ohne dass die Qualität drastisch abfällt.
 
  • Gefällt mir
Reaktionen: angHell, usmave, Quidproquo77 und 3 andere
adfsrg schrieb:
Noch nicht mal. Wäre das Ergebnis korrekt, dann würde der Output zu 100% mit der Ground Truth übereinstimmen.
Würde viel zu viel Compute und Speicher benötigen. Man braucht aber auch keine 100% weil Nativ schon nicht perfekt ist
Taxxor schrieb:
Seit DLSS 2.0 ist der Ansatz passiv und es wird nicht mehr auf spezielle Spiele trainiert
Passiv ist halt sehr unguter Ausdruck, natürlich läuft aktiv lokal ein KI Modell, dieses wurde aber am Nvidia Cluster trainiert. Das Ausführen geht aber zig mal schneller als das trainieren. Im Prinzip werden da Mio 16k Bilder auf ein paar MB Zahlen zusammengeschrumpft das lokal ausgeführt wird, sonst wäre die DLSS-DLL mehrere TB groß
 
Bregor schrieb:
Und das ist wohl nicht ganz korrekt.
Gib dir bei ihm nicht so viel Mühe. Ich glaube der trollt einfach nur ziemlich schlecht um mich zu provozieren.
Ergänzung ()

Taxxor schrieb:
Es wurden überhaupt keine Teile per KI generiert, das ist der Punkt.
Oh, Fakt ist aber, dass ALLE Teile des Bildes generiert werden. Richtig berechnet wird nur der Input für die Models
 
  • Gefällt mir
Reaktionen: Iscaran und Andre83hro
Bregor schrieb:
Und das ist wohl nicht ganz korrekt. Die "AI" in Form des Trainierten Neuronalen Netzes (Ein Transformer Model welches auf der Karte ausgeführt läuft mit hilfe der Tensor Cores) wertet scheinbar diese gefundenen jitter Pixel aus und berechnet daraus ein Bild welches dem der gewünschten Auflösung am nächsten kommt.
Ich finde es spannend, wie ihr diese Aussage immer wieder macht, ohne jede technische Grundlage.

Dass es einfach gar nicht realistisch ist, dass eine solche AI-Leistung, die ganze Bilder in dieser Geschwindigkeit generiert, auf heutiger Hardware geben kann... was soll's. Ignorieren wir das einfach mal.

Ach, was solls. Glaubt doch, was ihr wollt.
Ergänzung ()

adfsrg schrieb:
Oh, Fakt ist aber, dass ALLE Teile des Bildes generiert werden. Richtig berechnet wird nur der Input für die Models
Generiert vom DLSS Algo. Aber nicht von einer KI.
 
  • Gefällt mir
Reaktionen: usmave, Quidproquo77, Snapuman und 2 andere
TheInvisible schrieb:
Man braucht aber auch keine 100% weil Nativ schon nicht perfekt ist
Selbstverständlich braucht man das nicht, aber korrekt bedeutet nun mal, dass es zu 100% stimmt. Alles andere ist nicht wirklich korrekt, auch wenn das Ergebnis durchaus nutzbar ist.
 
adfsrg schrieb:
Oh, Fakt ist aber, dass ALLE Teile des Bildes generiert werden. Richtig berechnet wird nur der Input für die Models
Das exakt gleiche gilt, oh Wunder, auch für TAA.

Mit diesem schönen Wort kann man halt alles passend machen, absolut alles was du auf dem Monitor siehst, wurde von irgendwas "generiert"
 
  • Gefällt mir
Reaktionen: usmave, Quidproquo77, Snapuman und 3 andere
Hat das Ergebnis ernsthaft jemanden überrascht ?
 
Danke an die Redaktion für den Test!
Wann findet die nächste Blindverkostung statt?!^^
Fände es cool wenn weitere Blind Tests kommen. Gibt auch noch genügend andere Games die wir testen könnten. ;)
Bitte!!?^^
 
  • Gefällt mir
Reaktionen: Brrr
Grestorn schrieb:
Dass es einfach gar nicht realistisch ist, dass eine solche AI-Leistung, die ganze Bilder in dieser Geschwindigkeit generiert, auf heutiger Hardware geben kann... was soll's. Ignorieren wir das einfach mal.
Ist es aber, wie sonst könnte man wie zb hier von 76p auf 4k upscalen? So viel Jitter gibt es gar nicht bzw ist viel zu grob das da so viele Details nur allein dadurch rekonstruiert werden können: https://www.pcgameshardware.de/Deep...-Extremtest-38-x-22-Pixel-Skalierung-1504006/
 
Grestorn schrieb:
Ich finde es spannend, wie ihr diese Aussage immer wieder macht, ohne jede technische Grundlage.

Dass es einfach gar nicht realistisch ist, dass eine solche AI-Leistung, die ganze Bilder in dieser Geschwindigkeit generiert, auf heutiger Hardware geben kann... was soll's. Ignorieren wir das einfach mal.

Ach, was solls. Glaubt doch, was ihr wollt.
Ergänzung ()


Generiert vom DLSS Algo. Aber nicht von einer KI.

Ich weis halt nicht wie oft man es erwähnen oder erklären muss. Das was als KI bezeichnet wird ist das Transformer Model was auf der Karte mit Hilfe der Tensor Cores ausgeführt wird. Genaus wie diverse LLMs auf GPU laufen können und diese Cores nutzen.

Das das am Ende irgendwelche Matrix Multiplikationen und Umformungen und Mathematik sind, ändert da ja nix dran das man das heutzutage klassisch als "AI" bezeichnet.
 
  • Gefällt mir
Reaktionen: Brrr und Andre83hro
TheInvisible schrieb:
Ist es aber, wie sonst könnte man wie zb hier von 76p auf 4k upscalen? So viel Jitter gibt es gar nicht bzw ist viel zu grob das da so viele Details nur allein dadurch rekonstruiert werden können: https://www.pcgameshardware.de/Deep...-Extremtest-38-x-22-Pixel-Skalierung-1504006/
Bei einem stehenden Bild kannst Du jede beliebige Detailauflösung erzeugen, wenn Du nur genügend Frames jitterst.

64 optimal gejitterte Frames sind absolut äquivalent zu einem 64 (8x8) Supersampling-Bild – wenn das Bild statisch ist.

Wie ich schon x-fach schrieb, ist die Bewegung das Problem, und da setzen der Algo und meinetwegen auch das neuronale Netz an.
 
  • Gefällt mir
Reaktionen: Fika
adfsrg schrieb:
Nein, bei TAA wird das komplette Bild zuerst gerendert und dann per TAA gefiltert. Da wird nichts generiert, da ist noch nicht mal KI im Spiel.
TAA ist kein Filter, TAA arbeitet ebenso mit temporaler Komponente beim Rendern wie DLSS, daher kommt ja auch das Ghosting und die oft verschwommen Optik, weil nicht genug Daten zur Verfügung stehen um das Bild ordentlich zu erzeugen.
Das einzige AA Verfahren was komplett nach dem Rendern passiert (Post processing) ist FXAA.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: _Cassini_, usmave, Iscaran und 5 andere
welche dieser Methoden verursacht denn den geringsten lag, wenn man davon ausgeht, dass alle die gleiche framerate liefern (60fps cap z.B.)?
 
Ich habe vor kurzem den Selbsttest in Arc Raiders gemacht, da ich von ner RTX3090 auf eine RX9070XT umgestiegen bin und ich muss sagen, dass mir in dem Spiel FSR deutlich besser gefällt.
 
  • Gefällt mir
Reaktionen: angHell
Bregor schrieb:
Das das am Ende irgendwelche Matrix Multiplikationen und Umformungen und Mathematik sind, ändert da ja nix dran das man das heutzutage klassisch als "AI" bezeichnet.
Es ist ein fundamentaler Unterschied, ob man nun per AI Bilder generiert – so wie es Stable Diffusion et al. machen – oder ob man mit massiv-paralleler Berechnung von Matrizen (Vektorfeldern) arbeitet.

Das Wort AI wird im Marketing inflationär genutzt. Das bedeutet noch lange nicht, dass alles so super intelligent ist – es verkauft sich nur besser.

In welcher Form bei DLSS 4(.5) "Transformer" eingesetzt wird und wie es sich tatsächlich von CNN unterscheidet, weiß keiner so genau - außerhalb von NVidia.

Aber eines ist sicher: Es werden sicher keine ganzen Bilder per "Transformer" generiert, so wie man das von anderen Bildgeneratoren kennt.

Das glaubt ihr nur, aber es macht einfach keinen Sinn. So wie ein Transformer-Modell Bilder erzeugt, wäre das vieeeeeel zu ineffizient, um es in Echtzeit nutzen zu können.
 
  • Gefällt mir
Reaktionen: Snapuman
Grestorn schrieb:
Bei einem stehenden Bild kannst Du jede beliebige Detailauflösung erzeugen, wenn Du nur genügend Frames jitterst.

64 optimal gejitterte Frames sind absolut äquivalent zu einem 64 (8x8) Supersampling-Bild – wenn das Bild statisch ist.

Wie ich schon x-fach schrieb, ist die Bewegung das Problem, und da setzen der Algo und meinetwegen auch das neuronale Netz an.
Ist kein stehendes Bild, sieh dir doch bitte auch den Artikel entsprechend an.

Diese Diskussion wird langsam mühsam und hat eh keinen Sinn wenn du keine andere Meinung akzeptieren willst und immer auf irgendwelche Wortfetzen herumreitest...
 
  • Gefällt mir
Reaktionen: Iscaran
Kleiner Verbesserungsvorschlag oder Idee, falls es einen nächsten Blind-Test geben wird:

Man hätte einen Test mit 3x demselben Upscaler verwenden können, um zu sehen, wie viel Personen erkennen: "ich sehe keinen Unterschied" (was ja dann der Fall wäre). Als so eine Art "Kontroll-Frage". ;)
 
  • Gefällt mir
Reaktionen: Fika
Zurück
Oben