Bericht Leser-Blindtest 2026: Die Community sieht DLSS 4.5 klar vor FSR und Nativ + TAA

Nicht mal 50% empfinden DLSS 4.5 als qualitativ besser gegenüber anderen Verfahren.

Ich finde, das ist schon eine heftige Klatsche für nVidia.

Denn wäre es so eindeutig überlegen, hätte der Anteil wesentlich höher sein müssen.
 
  • Gefällt mir
Reaktionen: Alphanerd, Iscaran, tomsen78 und 4 andere
Weit weniger eindeutig tatsächlich als vermutet. Hätte gedacht, dass DLSS wesentlich besser erkannt und gewählt wird. Aber gut für uns alle, dass es auch für die Günstigkäufer ausreichend Bildqualität gibt. Und Nativ ist wirklich stark oftmals. Danke für den Test.
 
  • Gefällt mir
Reaktionen: Iscaran und Return2Burn
Kuestennebel79 schrieb:
Ich finde es echt amüsant, dass Du mir die Wikipedia vorhältst, wo ich schon gefühlt x-mal den englischen Wikipedia Artikel, der sehr viel genauer ist, hier zitiert habe.

Es wird nirgendwo gesagt, dass die AI Bilder generiert. Es wird AI eingesetzt im Algorithmus, aber die Generierung der Bilddaten ist weiterhin alleine das Rendering. Die hohen Details kommen durch die temporale Komponente und das Jittering, nicht dadurch, dass die AI irgendwas generiert.

Wenn überhaupt, ergänzt die AI nur an den Stellen, wo man aufgrund von Bewegung und Animation nicht auf vorhergehende Frames zurückgreifen kann. Aber das ist etwas ganz anderes als "Bilder generieren".
Ergänzung ()

jo0 schrieb:
Counter-Strike 2 als aktuelles Spiel hat zum Beispiel noch MSAA zur Auswahl.
rofl.
 
  • Gefällt mir
Reaktionen: Quidproquo77, mikiiway und Snapuman
Ich denke, ich spreche hier für jeden, der seine Kaufentscheidung rational trifft: Nvidia ist derzeit (leider) die einzig sinnvolle Empfehlung.

Selbst wenn man FSR 4 nutzen kann, zeigen objektive Vergleiche wie dieser Test, dass es DLSS 4.5 in der Bildqualität nach wie vor weit unterlegen ist. AMD hinkt also nicht nur beim Support, sondern auch bei der Technik selbst hinterher.

AMD stellt für RDNA 3 Karten, die gerade mal 2–3 Jahre alt sind, kein FSR 4 bereit. Nvidia hingegen unterstützt selbst die mittlerweile über sechs Jahre alte RTX 2000er Serie mit DLSS 4.5. Ob es praktisch sinnvoll ist, DLSS 4.5 auf einer RTX 2060 zu nutzen, steht auf einem anderen Blatt aber es geht ums Prinzip: Nvidia pflegt sein Ökosystem über Jahre hinweg, während AMD zahlende Kunden deutlich früher im Regen stehen lässt.
 
Was ne Schande für FSR 4 das jedesmal auf dem letzten Platz und damit hinter Nativ gelandet ist. Da weiß man halt warum man ne Nvidia Karte hat. Aber die Leute hier bei CB kaufen ja trotzdem AMD weil AMD ja das beste ist und Nvidia in nichts nachsteht.
 
  • Gefällt mir
Reaktionen: mikiiway
OpenSystemFan schrieb:
Weit weniger eindeutig tatsächlich als vermutet. Hätte gedacht, dass DLSS wesentlich besser erkannt und gewählt wird. Aber gut für uns alle, dass es auch für die Günstigkäufer ausreichend Bildqualität gibt. Und Nativ ist wirklich stark oftmals. Danke für den Test.
Nur weil mit Q Upscaling getestet wurde, bei B oder gar P würde es noch eindeutiger richtung Nvidia schwingen. Bei UP außer Konkurrenz. Aber ja, man bezahlt was man dafür bekommt.
Grestorn schrieb:
Wenn überhaupt, ergänzt die AI nur an den Stellen, wo man aufgrund von Bewegung und Animation nicht auf vorhergehende Frames zurückgreifen kann. Aber das ist etwas ganz anderes als "Bilder generieren".
Wie der Algo bzw das KI Modell intern funktioniert weiß nur Nvidia. Sicher ist nur, man gibt Bildinformationen + Parameter rein und bekommt und höher aufgelöstes Bild raus. Das KI im Einsatz ist haben schon diverse Forenmember mit dem Tool Nsight bewiesen da die Tensor Kerne ausgelastet wurden.
 
das ergebniss ist keine überraschung. Nvidia war schon immer eine der besten softwarefirmen der welt.

früher habe ich schon unterschiede beim ram-management und rucklern zwischen AMD und Nvidia gesehen, aber das wollen viele gar nicht sehen.
 
DLSS 4.5 ist jetzt also endlich in etwa so gut, wie Nvidia schon DLSS 1 beworben hat 😆
 
  • Gefällt mir
Reaktionen: Iscaran
mTw|Marco schrieb:
Nicht böse gemeint, aber sowohl Google als auch ChatGPT kann dir das anstandslos beantworten. lol.
Ok, ich hab mal Gemini gefragt:

Das ist eine klassische Begriffsverwirrung, wie sie oft entsteht, wenn Marketing-Sprech (wie "Temporal Upscaling") auf technisches Halbwissen trifft. Aus der Sicht eines Anwendungsentwicklers und Elektrotechnikers ist die Bezeichnung "temporal gerenderte Daten" in der Tat ein logisches Luftschloss.

Hier ist die detaillierte Analyse, warum der Begriff technisch inkonsistent ist und wie die korrekte Nomenklatur lautet.


Warum der Begriff "temporal gerenderte Daten" technisch falsch ist​

Rendering beschreibt den Prozess, aus einer Szenenbeschreibung (Geometrie, Shader, Licht) ein zweidimensionales Bild (Raster) zu erzeugen. Die Zeitkomponente (Temporalität) kommt erst ins Spiel, wenn wir den Kontext eines einzelnen Bildes verlassen.

1. Rendering ist ein diskreter Zustand​

Ein Frame wird zu einem spezifischen Zeitpunkt $t$ berechnet. Die Daten, die das Rendering-Pipeline-Ergebnis darstellen, sind statische Farb- und Tiefenwerte in einem Framebuffer. Man kann nicht "temporal rendern", da das Rendern selbst der Akt der Erzeugung eines Ist-Zustandes ist.

2. Vermischung von Synthese und Post-Processing​

Was derjenige meinte, ist die temporale Akkumulation oder Rekonstruktion.

  • Rendering: Erzeugung des Rohbildes (z. B. mit Subpixel-Jitter).
  • Temporale Verfahren (TAA, DLSS, FSR): Ein Post-Processing-Schritt, der Daten aus vorherigen Frames ($t-1, t-2, \dots$) nutzt, um das aktuelle Bild $t$ aufzuwerten.

    Die Daten selbst werden nicht "temporal gerendert", sondern unter Einbeziehung temporärer Abhängigkeiten gefiltert oder rekonstruiert.

3. Die Kausalitätsfalle​

"Temporal gerendert" würde implizieren, dass die Zeit eine Dimension der Rendering-Primitiven ist. In der Echtzeitgrafik rendern wir aber keine vierdimensionalen Hypercubes, sondern 3D-Geometrie auf eine 2D-Ebene. Die zeitliche Komponente ist eine Meta-Information (Motion Vectors), die zur Verrechnung von Frame-Folgen dient, aber nicht die Art des Renderns selbst beschreibt.


Die korrekte Terminologie​

Wenn man über moderne Rendering-Pipelines spricht, die TAA oder Upsampling nutzen, sollte man folgende Begriffe verwenden:

A. Temporale Rekonstruktion / Akkumulation​

Dies ist der präzise Fachbegriff. Er beschreibt, dass Bildinformationen über mehrere Frames hinweg gesammelt (akkumuliert) werden, um Aliasing zu reduzieren oder die Auflösung zu erhöhen.

B. Jittered Rendering mit temporalem Resolve​

In der modernen Pipeline wird die Projektionsmatrix pro Frame um winzige Bruchteile eines Pixels verschoben (Subpixel Jitter).

  • Der Prozess: Das Rendering bleibt klassisches Rasterizing.
  • Der Clou: Erst der Temporal Resolve (das Zusammenführen) nutzt die Historie-Buffer, um die Kanten zu glätten.

C. Sample-Reprojektion​

Da sich die Kamera oder Objekte bewegen, können alte Pixel nicht einfach 1:1 übernommen werden. Man nutzt Motion Vectors (Bewegungsvektoren), um Pixel aus dem Frame $t-1$ auf die neue Position in $t$ zu reprojizieren. Das ist ein mathematischer Korrekturschritt, kein Rendering-Modus.


Wie er es hätte formulieren müssen​

Um fachlich korrekt zu klingen, hätte die Aussage etwa so lauten müssen:

"Das Bild wird mit einem Subpixel-Jitter gerastert und anschließend durch eine temporale Rekonstruktion (wie TAA) finalisiert, wobei die Daten der Vorframes via Motion Vectors reprojiziert werden."
Zusammenfassend: Daten sind das Ergebnis eines Prozesses. Der Prozess des Renderns ist instantan. Die zeitliche Komponente ist ein Verfahren der Signalverarbeitung, das auf die (gerenderten) Daten angewandt wird, um das Abtasttheorem (Nyquist-Shannon) durch zeitliche Überabtastung besser zu erfüllen.
 
  • Gefällt mir
Reaktionen: Iscaran
adfsrg schrieb:
Nein, jeder, der zumindest ein klein wenig von KI weiß, kann dir erklären, was ein Transformer ist.
Dann schieß mal los :)

Wenn Du das so genau weißt (es gibt ja einen schönen Wikipedia-Artikel dazu), dann weißt Du auch, dass dafür enorme Datenmengen notwendig sind und auch das neuronale Netz an sich einen ziemlich großen Speicherbedarf hat. Von der Rechenkapazität gar nicht zu reden.

Ich finde es erstaunlich, wie NVidia es schafft, das von einer 2060 in Echtzeit berechnen zu lassen. Ich meine, ich hab ja schon einiges mit AI-Bildgeneratoren gemacht, aber NVidia (und auch AMD) schlagen sie alle.


Auf die Idee, dass man AI und auch das Transformer-Grundprinzip auch für andere Dinge einsetzen kann, als tatsächliche Bilder zu generieren, scheint ihr nicht zu kommen. Das, was DLSS/FSR macht, muss viel grundlegender und einfacher sein, sonst könnte es niemals in dieser Geschwindigkeit laufen. Auch wenn es vom Prinzip her auf ähnlichen Verfahren basiert.
 
Pilstrinker schrieb:
Nicht mal 50% empfinden DLSS 4.5 als qualitativ besser gegenüber anderen Verfahren.

Ich finde, das ist schon eine heftige Klatsche für nVidia.
Wenn das der Maßstab ist, geben Leute Geld aus für ein AMD Upsampling, was schlechter abliefert als nativ.
Das ist dann keine Klatsche, sondern richtig Sadomaso Selbstkasteiung.
Oder?

🤦‍♂️


Die kognitive Dissonanz der Nvidia hater in diesem Thread ist wieder köstlich, und das sage ich als jemand, der gerade die dritte 9070XT hintereinander im Freundeskreis vermittelt hat.

Die ragebaits sind 🥱
 
  • Gefällt mir
Reaktionen: Rawday, _Cassini_, anarchie99 und 4 andere
Grestorn schrieb:
Das, was DLSS/FSR macht, muss viel grundlegender und einfacher sein, sonst könnte es niemals in dieser Geschwindigkeit laufen.
Habe ich schon erklärt, das ist ein spezialisiertes Modell was nur das kann und kein general purpose Model was hunderte GB Speicher braucht. Steht aber auch im Dokument was ich gepostet habe, das Model braucht je nach Auflösung so 100-400MB VRAM
 
  • Gefällt mir
Reaktionen: 12nebur27
jo0 schrieb:
Warum sollte es nicht mehr funktionieren? Es wird halt fast nicht mehr genutzt. Counter-Strike 2 als aktuelles Spiel hat zum Beispiel noch MSAA zur Auswahl. In Half-Life Alyx ist es sogar erzwungen (VR Game):
https://www.reddit.com/r/FuckTAA/co..._half_life_alyx_it_uses_4x_msaa_no_ray/?tl=de
Was man für ein schönes, klares Bild mit MSAA bekommt 😍
Beides nutzt eben kein Deferred Rendering, sondern Forward. Deferred und MSAA beißen sich. Abgesehen davon, glättet MSAA nur Polygonkanten, also funktioniert das ganze mit Shadereffekten und Alphas nicht wirklich, kostet dafür aber nen Ar*** voll Leistung.

Viele Effekte werden heute auch ganz gerne mal in niedrigerer Qualität gerendert und durch TAA kaschiert. Haare wären hier so ein Beispiel. Würdest du stattdessen MSAA nutzen, müsstest du die Qualität sämtlicher Effekte hochfahren, was die Performance in den Keller zieht, oder es sieht scheiße aus.
Siehe bspw. hier:
https://www.reddit.com/media?url=ht...bp&s=1a3a271ccae5a505425a59f501327b9432f54b92
 
  • Gefällt mir
Reaktionen: Quidproquo77, Grestorn und Laphonso
adfsrg schrieb:
Nein, jeder, der zumindest ein klein wenig von KI weiß, kann dir erklären, was ein Transformer ist.
Weil der "Weiße Riese" so heißt, muss auch ein echter Riese drin sein, oder?
:)

Wie gesagt, ich glaube schon, dass ein dem Transformer-Modell angelehntes Prinzip verwendet wird. NVidia wird sich nicht die Blöse geben, das einfach nur so zu nennen. Aber das Modell generiert sicher keine Bilder. Sondern es wird auf irgendeine sinnvolle Weise zur Verrechnung der gerenderten Bilddaten verwendet.
 
Verwundert mich jetzt nicht, ist ja Nvidia Base oder doch AMD Base? 🙃 😘 /s off

Seit DLSS 4.5 bin ich nicht mehr auf reine Rohleistung/Nativ aus. Bin echt gespannt, wo das alles noch hinführt.
 
  • Gefällt mir
Reaktionen: Laphonso
ElliotAlderson schrieb:
Wer hätte das nur erahnen können? :D
Ich habe anscheinend, bis auf einmal, immer für DLSS gestimmt.
Lass mich raten, TLOU2? ^^
moshkopp schrieb:
Habe bis auf TLOU2 immer für DLSS gestimmt. Es deckt sich aber auch mit meinen Erfahrungen.
Dito.

Das TLOU2 Ergebnis hat mich dann doch etwas erstaunt, hab mir die Videos eben nochmal angesehen und tatsächlich bleib ich dabei. Bei TLOU2 sieht FSR tatsächlich am besten aus.

Ich achte da aber quasi auch nur auf den extrem auffälligen Zaun links und ihren Kopf davor im Vorbeigehen!
Der Zaun selbst ist bei DLSS/FSR in etwa gleich gut geglättet, aber der Kopf zieht bei DLSS noch ziemlich auffällige Schlieren nach (ist das das berüchtigte Ghosting?), da ist bei FSR fast nix zu sehen.

Der Rest der Szene sieht wiederum ohne Zoom in Bewegung bei allen dreien nahezu identisch aus. Da muss man schon wissen wonach man mit der Lupe sucht, um Unterschiede zu erkennen.


MalWiederIch schrieb:
Gerade einmal etwas über 10% - wie „viele“ :p
Anhang anzeigen 1706943
Wenn die kleinste Anzahl „viele“ sind - was sind dann die anderen? :stacheln:
Das Interessante bei der "Gleichwertig" Option finde ich tatsächlich, dass sie (bis auf besagte CP Ausnahme) nahezu gleich/konsistent über alle Szenen ist.
Ich finde, man kann daraus durchaus den Schluss ziehen, dass ~11% der Leser hier generell optisch das ganze einfach sehr "oberflächlich" bewertet/wahr nimmt. Sozusagen eine Art konsistentes Grundrauschen dieser Statisik.
 
TheInvisible schrieb:
Habe ich schon erklärt, das ist ein spezialisiertes Modell was nur das kann und kein general purpose Model was hunderte GB Speicher braucht. Steht aber auch im Dokument was ich gepostet habe, das Model braucht je nach Auflösung so 100-400MB VRAM
Und was macht es genau? Steht das da auch drin? Steht drin, dass das Modell die kompletten Bilder generiert?

Du kannst ja mal das Kapitel nennen. Wie gesagt, den ganzen Text zu lesen, dazu fehlt mir jetzt die Zeit.
 
OpenSystemFan schrieb:
Weit weniger eindeutig tatsächlich als vermutet. Hätte gedacht, dass DLSS wesentlich besser erkannt und gewählt wird.
Heißt aber auch das uns Computerbase bisschen Fanboymäsig zu stark für Nvidia hyped. Denn man glaubt halt den Einschätzungen der Redakteure die schauen dann mit ihren Tools und Lupe und ner RTX 5090 auf die Stellen wo der Unterschied sehbar ist. Und dann kommt das so rüber als ob das bei Spielen im normalen Gameplay oft nen Unterschied macht.

Das scheint mir so ne Expertenblindheit, der Durchschnittliche User hat ne RTX 4060 oder so, da sind die massiven Einbusen von DLSS 4.0 auf 4.5 schon gar nicht darstellbar.

Klar bei Monitoren ist man dann wieder super "realistisch" und glaubt das niemand UHD benutzt, auch wenn hier schon mit 5k zusammen 30% UHD benutzen da wird dann immer auf Steam HW Survey geschaut, gleichzeitig aber mit Features für 5090 argumentiert.
 
  • Gefällt mir
Reaktionen: Alphanerd, Brrr, OpenSystemFan und eine weitere Person
@Wolfgang @Jan
Vorschlag/Frage für einen zukünftigen Vergleich, falls sowas nochmal geplant ist, oder auch bei Side-by-side-Vergleich in den Spiele-Tests:

Wäre es möglich, die Video-Vergleiche mal in WQHD statt UHD zu machen?
Aus folgenden Gründen:
  • Die Hardwareanforderungen zur Wiedergabe der Videos wären deutlich geringer. Ich behaupte, dass viele Teilnehmer die gar nicht flüssig anschauen können. Von meinen Laptops (teilweise mit 8 Kernen und dedizierter Grafik) schafft es keiner, höchstens bei 0,25x Wiedergabegeschwindigkeit. Und auch der 9800X3D mit 9070XT kommt bei drei parallelen UHD Videos bei einfacher Geschwindigkeit immer mal wieder aus dem Takt (mag auch am Browser liegen, die Auswirkung bleiben aber dieselben)
  • Eure eigene Hardware-Umfrage hat ergeben, dass die allermeisten Teilnehmer (ca. 70%) einen Monitor mit weniger als UHD-Auflösung haben. Entsprechend schwer wird es da, die Unterschiede überhaupt zu beurteilen, wenn man gar nicht alle Pixel sieht. Man muss dann schon sehr stark rein zoomen, und sieht dann dafür aber eben nur noch einen kleinen Ausschnitt.
  • Die grundlegenden Ergebnisse sollten in WQHD ähnlich/gleich ausfallen, wie in UHD, wären aber leichter zu beurteilen bzw. besser zu erkennen.
  • WQHD ist für die meisten User aktuell die relevanteste Auflösung, auch wenn Upscaling bei UHD noch wichtiger ist. Eure eigene Argumentation ist ja aber, es immer zu verwenden. Für die Bevorzugung von UHD gibt es da also aktuell kaum einen Grund.
Screenshot aus der aktuellen Umfrage:
1771336956468.png
 
  • Gefällt mir
Reaktionen: _Cassini_, Brrr, Laphonso und 5 andere
Zurück
Oben