Bericht Leser-Blindtest 2026: Die Community sieht DLSS 4.5 klar vor FSR und Nativ + TAA

Bregor schrieb:
Man kann sich nun streiten ob das als "Erfinden" von Inhalten gilt oder als "es sind alle notwendigen Daten da und dies ist das korrekte Ergebnis"
Irgendwann ist es auch Haarspalterei.

Natürlich muss der Algorithmus an den Stellen Daten einfügen, wenn er keine hat. Das ist eben ganz besonders bei Stellen der Fall, die vorher verdeckt oder außerhalb des Sichtfelds waren.

Aber selbst da ist der Algo ja nicht völlig ahnungslos; er hat das aktuell gerenderte Bild von den Stellen, aber eben nicht in der nötigen Auflösung.

Er muss also aus der niedrigen Auflösung und den umgebenden Bilddaten versuchen, die Details zu restaurieren.

Ja, das ist ein höchst komplexer Vorgang. Und meinetwegen kann man sagen, dass an diesen Stellen auch einige Pixel "generiert" werden. Deswegen stabilisiert sich das Bild ja auch nach einigen Bruchteilen von Sekunden – weil die "generierten" Pixel durch echte ersetzt werden können.

Nur wenn manche schreiben, dass DLSS eine generative KI sei, also dass das gesamte Bild aus der KI stammt, dann kann ich eben nur mit dem Kopf schütteln. Genau DAS ist es eben nicht.

Genauso wie das Märchen, dass DLSS Details erfinden würde. Das mag in Bewegung in klar umrissenen Bereichen der Fall sein, aber diese Details sieht man kaum, weil sie viel zu kurzzeitig sichtbar sind. Die Details, auf die sich das Auge konzentriert, Texturen, Bäume, Vegetation usw. sind eben echte Details, keine erfundenen oder generierten.

Und dieses Märchen möchte ich eben bekämpfen. Weil es sich so hartnäckig hält.
 
  • Gefällt mir
Reaktionen: usmave und Snapuman
@MalWiederIch
Danke für die Antwort.
Aus dem Softwaretesten kenne ich das Phänomen gut: Das Gewohnte wird subjektiv oft besser bewertet, selbst wenn die Fakten etwas anderes sagen.
Das Flimmern aus Wolfgangs Kommentar ist dafür ein gutes Beispiel.

Vielleicht ist es am Ende auch eine Glaubensfrage. Ich frage mich, wie ich abgestimmt hätte, wenn ich nicht regelmäßig mit aktiviertem DLSS spielen würde.
 
adfsrg schrieb:
Das muss man auch nicht schreiben, da DLSS ja der Name dieser KI ist. Es steht ganz oben im Artikel:

Deep Learning ist ja KI:
Da steht erst mal, dass DLSS eine Technologie ist, nicht, dass DLSS eine AI ist. Dass ist DLSS KI Technologien eingesetzt werden, heißt noch lange nicht, dass DLSS als solches eine KI ist.
 
  • Gefällt mir
Reaktionen: Snapuman
Bregor schrieb:
Mit DLSS sparen wir Leistung indem wir ein low-res bild rendern lassen (oder wie bereits etabliert die Daten dafür erzeugen lassen) und geben diese dann in die "alternative Renderpipeline" in Form des Transformator Models. Dieses generiert dann das Bild aus den vorhandenen Daten. ABER es hat nicht alle Daten zur Verfügung, sondern aufgrund seines Trainings berechnet es wie das Bild aussehen müsste und das wird unterschiedlich sein vom Full-Res gerenderten Bild. DLSS kann sich anhand des 480p Bildes/der Daten also ausmalen wie es in 1080p aussehen müsste aufgrund seine Trainings.

Du schreibst das so als würde sich bei DLSS ne KI das 480p Bild anschauen und dann aufgrund eines Trainings entscheiden, wie es in 1080p aussehen müsste, das ist doch grundlegend falsch und dafür müsste auch eine lokale KI auf der Karte laufen, was nicht geht.

DLSS hat alle Daten zu Verfügung, eben durch die temporale Abtastung des Bildes. Es hat sogar mehr Daten zur Verfügung, als das native 1080p Bild, daher sehen ja feine Details damit auch besser aus als in einem nativen 1080p Bild.

Das was der Algorithmus können muss ist, in kürzester Zeit zu entscheiden, welche Pixel behalten und welche Verworfen werden sollen und auch das macht keine KI, sondern ein fester Algorithmus, dem für diese Beurteilung ebenso alle Daten vom Spiel zur Verfügung stehen.

Dass es hier hin und wieder zu Artefakten kommt, ist doch ganz normal, wenn die Beurteilung eben nicht immer 100%ig korrekt war, dafür wird der Algorithmus ja auch immer weiter verfeinert (hier ist die einzige Stelle, wo KI ins Spiel kommt, nicht in Echtzeit beim Spielen), damit er entweder mit weniger Daten auskommt, um auf das gleiche Ergebnis zu kommen oder aber mehr Daten in kürzerer Zeit verarbeiten kann.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usmave, Iscaran, Snapuman und 4 andere
ElliotAlderson schrieb:
Naja, es macht ja schon einen Unterschied, ob eine KI versucht Details zu erraten oder, ob man mittels KI einen Algorithmus bzw. Model trainiert, um vorhanden Dinge zu rekonstruieren.
Vielleicht sollte man nicht "erraten" verwenden. Damit anthropomorphisiert man die KI zu sehr. Vielleicht kommt daher das Missverständnis. Selbstverständlich rät eine KI nicht. Das geht eher in Richtung Stochastik. Wenn jemand in diesem Kontext von "erraten" spricht, ist gemeint, dass ein KI-Modell darauf trainiert wurde die Details zu generieren. Damit ist nicht gemeint, dass die Details komplett zufällig sind. Auf Grundlage der vorhandenen Daten kann das Modell die Details sogar ziemlich gut "erraten".
ElliotAlderson schrieb:
Bei DLSS 1 griff ne KI aktiv ein, ab zwei ist es nur noch passiv auf dem Server von Nvidia.
Nein. Selbstverständlich läuft bei DLSS SR >1 das KI-Modell lokal auf der GraKa und nicht in der Cloud. Das ginge allein von der Latenz her gar nicht.
Ergänzung ()

Grestorn schrieb:
Da steht erst mal, dass DLSS eine Technologie ist, nicht, dass DLSS eine AI ist. Dass ist DLSS KI Technologien eingesetzt werden, heißt noch lange nicht, dass DLSS als solches eine KI ist.
Genauer steht da, dass DLSS ein Technologie ist, die Deep Learning zur Bildverbesserung einsetzt. DL wiederum ist ein Form von ML und ML ist AI. Du musst schon alles lesen. Langsam glaub ich, du machst das mit Absicht.
 
  • Gefällt mir
Reaktionen: Iscaran und Andre83hro
Wäre mir auch neu, dass eine stinknormale lokale Gaming-GPU beim Spielen laufend mit der Cloud kommuniziert. Das ist nun wirklich Käse.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Return2Burn, dewa und eine weitere Person
adfsrg schrieb:
Genauer steht da, dass DLSS ein Technologie ist, die Deep Learning zur Bildverbesserung einsetzt.
Die einen mit Deep Learning trainierten Algorithmus einsetzt, auf der Karte läuft keine aktive KI

Das ist auch, was @ElliotAlderson mit "passiv auf dem Server von Nvidia" meint, wenn auch etwas unglücklich ausgedrückt, denn natürlich lief auch bei DLSS 1.0 das KI Modell nicht aktiv auf der GPU sondern wurde ebenfalls nur auf Nvidia Servern genutzt, um den Algorithmus zu schreiben, der später auf der GPU läuft. Nur wurde bei DLSS 1.0 halt noch pro Spiel trainiert mit 16K Inhalten aus eben diesem Spiel, damit der Algorithmus dann wirklich genau in diesem Spiel bei jeder Szene versuchen konnte, das niedriger aufgelöste Bild zu dem zu machen, was er mit den 16K Bildern gelernt hat.

Seit DLSS 2.0 ist der Ansatz passiv und es wird nicht mehr auf spezielle Spiele trainiert
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usmave, Brrr, Snapuman und 5 andere
ElectricStream schrieb:
Nativ ist somit offziell tot.
DLSS bietet bei mehr FPS quasi vergleichbare wenn nicht sogar bessere Qualität.

Sollte dem letzten Nativ-Verfechter nun auch klar sein..
Ich habe Nativ drei Mal ausgewählt, weil die anderen Bilder für mich wie KI Aussahen und beim vierten war ich auch lange am überlegen.
Quidproquo77 schrieb:
Wenn man eh zufrieden ist und mit einem schlechteren Bild offenbar leben kann oder es nicht erkennt ist es noch vorteilhafter. Dann kann man DLSS 4.5 Performance nutzen, das liegt bei FSR 4 Quality.

Deine Schlussfolgerung ist falsch.

Wer nur mit KI Inhalten aufwächst, der wird KI Inhalte immer als das Original und somit schönere ansehen, der Test beweist dies sehr gut. Viele von euch sind sehr affin was KI angeht, ich habe nicht einmal gewusst das wir hier einen Test haben zwischen KI und echt, da ich überhaupt nicht in der Materie drin bin.

Für mich waren deshalb die Nativ Bilder viel vertrauter und schöner, nur zwei Mal habe ich die KI Variante gewählt und da war die Entscheidung auch knapp.

Das ist wie mit Zucker in der Nahrung, würde man heute einem Menschen der vor 1000 Jahren gelebt habt, ein Essen kochen, würde er es nicht wollen, weil es viel zu unnnatürlich schmeckt. Aber die Menschen heute, lieben dieses Essen, weil sie es nur so kennen.

Warum bekommen wohl so viele KI Frauen auf IG likes? Weil die Männerwelt mit ihnen groß wird, gerade junge Menschen kennen doch den Unterschied gar nicht mehr. So scheint es auch bei Spielen und FIlmen zu sein, für mich sieht es immer total künstlich aus, gerade wenn du heranzoomst siehst du Klötze und Brei, nur von weit weg sieht es schön aus und ich frage mich, ob wirklich alle die KI mögen, das schon mal bemerkt haben.

Diese Anfeindungen und teilweise Beleidigungen gegenüber anderen Meinungen sind wohl leider unser täglich Brot geworden. Wie man da so abgehen kann, mir schleierhaft.
 
  • Gefällt mir
Reaktionen: adfsrg und Andre83hro
Grestorn schrieb:
Nur wenn manche schreiben, dass DLSS eine generative KI sei, also dass das gesamte Bild aus der KI stammt, dann kann ich eben nur mit dem Kopf schütteln. Genau DAS ist es eben nicht.
Doch, das komplette Bild ist generiert. Anders geht es ja auch gar nicht.
Aber wenn du meinst, dass nicht alles generiert wurde, dann müsstest du ja auch konkrete Pixel angeben können, die nicht generiert sind, sondern gerendert. Das wäre theoretisch bei DLAA möglich, aber doch nicht bei Bildern, die mit einer geringeren Auflösung gerendert wurden.
 
  • Gefällt mir
Reaktionen: Iscaran und Andre83hro
FSR 👀 alter Scholli. Wer billig kauft, kauft zweimal ;)
Aber das Nativ gerade Mal den Zwoten macht... wie will man sich das in Kombination noch schönreden? Vielleicht ja mit "ich spiele ja gar keine so grafisch anspruchsvollen Spiele" oder "die Entwickler müssten Mal wieder vernünftig optimieren" 😅

Hätte aber nach dem positiven FSR4 Feedback der Presse doch nicht mit derartig krasser "Verkackung" gerechnet.
 
Zuletzt bearbeitet:
Bro, das ist crazy! Ich war mir zu 99.999% sicher dass ich ausschließlich nativ gewählt hätte, dabei war das alles DLSS 4.5 !
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Laphonso
Alex8 schrieb:
ich habe nicht einmal gewusst das wir hier einen Test haben zwischen KI und echt, da ich überhaupt nicht in der Materie drin bin.
Haben wir auch nicht und wenn du selbst sagst, dass du überhaupt nicht in der Materie drin bist, dann solltest du vielleicht vorher reinkommen, bevor du sowas behauptest.
 
  • Gefällt mir
Reaktionen: Snapuman
Taxxor schrieb:
Du schreibst das so als würde sich bei DLSS ne KI das 480p Bild anschauen und dann aufgrund eines Trainings entscheiden, wie es in 1080p aussehen müsste, das ist doch grundlegend falsch und dafür müsste auch eine lokale KI auf der Karte laufen, was nicht geht.

DLSS hat alle Daten zu Verfügung, eben durch die temporale Abtastung des Bildes. Es hat sogar mehr Daten zur Verfügung, als das native 1080p Bild, daher sehen ja feine Details damit auch besser aus als in einem nativen 1080p Bild.

Das was der Algorithmus können muss ist, in kürzester Zeit zu entscheiden, welche Pixel behalten und welche Verworfen werden sollen und auch für diese Beurteilung stehen ihm alle Daten vom Spiel zur Verfügung.

Dass es hier hin und wieder zu Artefakten kommt, ist doch ganz normal, wenn die Beurteilung eben nicht immer 100%ig korrekt war, dafür wird der Algorithmus ja auch immer weiter verfeinert, damit er entweder mit weniger Daten auskommt, um auf das gleiche Ergebnis zu kommen oder aber mehr Daten in kürzerer Zeit verarbeiten kann.

Ein optimiertes Model (was ja am ende die KI ist) auf der Karte auf den dafür spezifisch gebauten Cores laufen zu lassen ist nicht so aufwendig wie man vermutet und das ist auch was hier passiert. Das Training findet natürlich nicht auf dem PC statt sondern vorher.

Ich stimme zu nicht zu wissen welche Daten genau die Inputs sind, aber es wird immer gesagt: intern wird in einer niedrigeren Auflösung gerechnet und mit dem Transformator Model das Bild dann hochskaliert. Was bringt es also die ganzen Daten die für ein 1080p Bild zur Verfügung stehen müssten zu ermitteln, da würde man keine Rechenleistung sparen. Demnach muss ja ein abgespeckter Datensatz erzeugt werden damit man einen Benefit hat.

Das mit den Details spricht natürlich dafür, das DLSS mehr Daten zur Verfügung hat, als das 480p Bild und ja durch den Temporalen Aspekt nochmal mehr, das hilft bei der Stochastik.


edit: Eben noch das Bild gefunden, DLSS nutzt also die Pixel der low-res Bilder in irgendeiner weise. Durch supersampling werden dann mehr genutzt, also der temporale Aspekt fließt ein und das geht dann in das AI Model um das fertige Bild daraus zu generieren, auf Pixelbasis. (simplifiziert!)

1771343792272.png
 
  • Gefällt mir
Reaktionen: Iscaran, Andre83hro und adfsrg
Taxxor schrieb:
Die einen mit Deep Learning trainierten Algorithmus einsetzt, auf der Karte läuft keine aktive KI
Das ist ein guter Punkt! Wobei aber dennoch dieser Algorithmus auf Tensor-Kernen läuft. Inwieweit man ihn damit als "neuronales Netz" bezeichnen kann, ist eine andere Frage.

Ich wünschte, wir wüssten mehr über die Implementierung. Aber eines weiß ich genau: Da werden keine ganzen Bilder per KI generiert … das auf gar keinen Fall.
 
  • Gefällt mir
Reaktionen: Snapuman
Alex8 schrieb:
Diese Anfeindungen und teilweise Beleidigungen gegenüber anderen Meinungen sind wohl leider unser täglich Brot geworden. Wie man da so abgehen kann, mir schleierhaft.
Manche haben sich halt was in den Kopf gesetzt ("DLSS generiert keine Bilder") und lassen sich von noch so vielen Fakten nicht umstimmen. Das man da irgendwann die Geduld verliert wenn man weiß wie es wirklich ist, ist doch verständlich, oder?
 
  • Gefällt mir
Reaktionen: Andre83hro
Alex8 schrieb:
Wer nur mit KI Inhalten aufwächst, der wird KI Inhalte immer als das Original und somit schönere ansehen, der Test beweist dies sehr gut.
Und das meine ich. Wenn Leute den Gedankensprung machen:

DLSS nutzt AI
-> DLSS "generiert" Bilder, so ähnlich wie AI Slop das heutzutage um uns herum ist
-> DLSS ist nicht mehr die Realität.


NEIN. Eben nicht. So funktionieren DLSS und FSR eben gerade NICHT.
Ergänzung ()

adfsrg schrieb:
Manche haben sich halt was in den Kopf gesetzt ("DLSS generiert keine Bilder") und lassen sich von noch so vielen Fakten nicht umstimmen. Das man da irgendwann die Geduld verliert wenn man weiß wie es wirklich ist, ist doch verständlich, oder?
Ich muss echt schmunzeln.
 
  • Gefällt mir
Reaktionen: usmave, Quidproquo77, Snapuman und eine weitere Person
Grestorn schrieb:
Da werden keine ganzen Bilder per KI generiert … das auf gar keinen Fall.
Zu 100% doch. Schau dir doch einfach die Videos an. Sind die alle komplett schwarz außer dem mit TAA? Nein? Also wurden Bilder generiert.
Ergänzung ()

Grestorn schrieb:
Ich muss echt schmunzeln.
Hat du dich wiedererkannt? Ja, genau dich meinte ich.
 
  • Gefällt mir
Reaktionen: Iscaran und Andre83hro
Bregor schrieb:
Ich stimme zu nicht zu wissen welche Daten genau die Inputs sind, aber es wird immer gesagt: intern wird in einer niedrigeren Auflösung gerechnet und mit dem Transformator Model das Bild dann hochskaliert. Was bringt es also die ganzen Daten die für ein 1080p Bild zur Verfügung stehen müssten zu ermitteln, da würde man keine Rechenleistung sparen. Demnach muss ja ein abgespeckter Datensatz erzeugt werden damit man einen Benefit hat.
Es wird in einer niedrigen Auflösung gerendert, aber immer wieder und mit Kamera-Jitter. Wodurch die fehlenden Details restauriert werden.

Das Jittern und die Menge der Renderings restaurieren die Details. Nicht eine AI.
 
  • Gefällt mir
Reaktionen: Snapuman und Taxxor
  • Gefällt mir
Reaktionen: usmave, Quidproquo77, Snapuman und 2 andere
Zurück
Oben