Bericht Leser-Blindtest 2026: Die Community sieht DLSS 4.5 klar vor FSR und Nativ + TAA

3x DLSS, 2x Nativ und 1x kein erkennbarer Unterschied. Das trifft sich auch mit meinen eignen Beobachtungen. 1080p auf 4k hochskaliert mit einem von den Upscalern ist mehr wie gut genug für meine Bedürfnisse. Da sollte die aktuelle GPU noch laaaange ausreichen, gerade, da ich's gerne leise und effizient mag.
 
  • Gefällt mir
Reaktionen: Krazee
Also ich finde, dass das Ghosting mit den neusten DLSS varianten wirklich kein großes Problem mehr ist. Und bei Objekten, wo es noch auffällig ist, liegt das daran, dass es wirklich schwierige Szenen sind oder die Objekte keine ordentlichen Motion Vektoren haben.
Bei niedrig Kontrast dunklen Szenen kann es besonders mit kleinen und dünnen Objekten wie Partikeln oder Haaren doch noch einige Probleme geben, finde aber, dass das definitiv das geringere Übel ist.
 
adfsrg schrieb:
Klassisches SuperSampling zähl ich zu nativ. Also nativ im Sinne von "nicht per KI" berechnet.
Ach, es ist eine KI Aversion.

Nun, bei DLSS ist das Wörtchen "KI" mehr ein Marketing-Gag. Es hat nichts mit den AIs zu tun, mit denen wir heute so umgeben sind. Es wird eben nichts generiert.

Du kannst Deine Aversion also stecken lassen :)
 
  • Gefällt mir
Reaktionen: BeowulfAgate
12nebur27 schrieb:
@Brrr Prinzipiell stimme ich dir da zu. Es sollte IMMER die Möglichkeit geben das auszuschalten. Das Problem was wir nur inzwischen haben ist, dass sehr viele Dinge in spielen Subnative gerendert werden und dann mit TAA in Ordnung gebracht werden. Viele Haar Rendering Ansätze sind komplett darauf aufgebaut, dass du TAA benutzen kannst.
Ich muss zugeben, dass ich nicht viele ganz moderne Spiele bisher gespielt habe und bei denen wo ich TAA ausgeschaltet habe es zwar mehr geflimmert hat, sonst aber nichts negatives aufgefallen ist. Hab jetzt grad ein wenig gegoogelt, NIOH 3 sieht unspielbar aus, wenn AA komplett ausgeschaltet wird. In den Fällen macht es sicher keinen Sinn es als Option anzubieten.
 
  • Gefällt mir
Reaktionen: 12nebur27
adfsrg schrieb:
Nein, nach 0,03 s sind die Bildfehler durch temporale Verfahren nicht weg, das dauert länger
Bei Q? Nein, das kann ich nicht bestätigen. Es macht auch technisch keinen Sinn. Kannst Du das belegen?
 
Grestorn schrieb:
Nun, bei DLSS ist das Wörtchen "KI" mehr ein Marketing-Gag. Es hat nichts mit den AIs zu tun, mit denen wir heute so umgeben sind. Es wird eben nichts generiert.
Ach komm, das ist absoluter Blödsinn. Selbstverständlich wird generiert. Lies dich doch einfach mal kurz ein oder denk nach, eigentlich ist es offensichtlich.
 
  • Gefällt mir
Reaktionen: Andre83hro
Das Ergebnis wundert mich überhaupt nicht und ich nutze eine 4090 seit Ende 2022 IMMER mit DLSS Quality und habe kleine Abstriche in Kauf genommen für die dadurch wesentlich bessere Effiziez (+ max UV, FPS Limit & RT/PT off)
Bin sehr gespannt darauf wie DLSS 5.0+ so wird!
 
  • Gefällt mir
Reaktionen: stevefrogs und Grestorn
Brrr schrieb:
Es zumindest über die Ingame-Optionen ausschaltbar zu machen? Persönlich habe ist mir geflimmer lieber als Unschärfe, da kann dann jeder selber wählen, was ihm lieber ist.
Die Schärfe durch Aliasing ist eine falsche Schärfe – nämlich nur die, die durch Rasterisierung an Pixelkanten entsteht. Von der sollte man sich ganz bewusst nicht in die Irre leiten lassen.
 
Spannend das hier trotzdem die identischen Diskussionen wie vor der Ergebnisveröffentlichung geführt werden 😅
 
  • Gefällt mir
Reaktionen: stevefrogs, Bccc1, MalWiederIch und 5 andere
adfsrg schrieb:
Selbstverständlich. Starte ein beliebiges Spiel, steh still, warte kurz, beweg dich ruckartig. Sieht man sofort
Ja, bei Performance gebe ich Dir sofort recht. Da sieht man das etwa eine Zehntelsekunde. Bei Q sehe ich das nicht mehr.

Da wäre auch mal ein Blindtest interessant. Das geht natürlich nur am echten Objekt, nicht über Videos.
Ergänzung ()

adfsrg schrieb:
Ach komm, das ist absoluter Blödsinn. Selbstverständlich wird generiert. Lies dich doch einfach mal kurz ein oder denk nach, eigentlich ist es offensichtlich.
Was wird denn generiert Deiner Meinung nach? ;)

Ich glaube generell nicht jedem Marketing BlaBla. Details müssen jedenfalls nicht generiert werden.

Und sei vorsichtig mit solchen Aussagen, wie "absoluter Blödsinn", wenn Du nicht zu 100% die Technik vollstöndig verstanden hast (nein, ich behaupte auch nicht, dass ich sie zu 100% verstanden habe - aber so weit, dass ich weiß, dass keine Details "erfunden" werden müssen).
 
ProfessorJump schrieb:
~50% haben für "DLSS liefert die beste Bildqualität gestimmt"
Ja aber wenn nur 50% es erkennen können / besser finden heißt das der Unterschied klein ist, dafür schlechtere Preis/FPS lohnt sich nicht, außer man hat eh zu viel Geld oder kauft eh > rx 9700xt dann gibts ja nichts von AMD aber dann ist eben auch nicht DLSS das Kaufargument.

Besonders jetzt wo die Preiserhöhungen bei Nvidia deutlich stärker als bei AMD sind, gibts keinen starken Grund wegen DLSS zu Nvidia zu greifen. FSR4 war ein großer Sprung DLSS 4.5 nicht. DLSS 4.0 war es auch ja und ja ich würde auch sagen das man 50% FSR4 oder 50% DLSS 4 (Verbesserung) mehr sehen würde wie DLSS 4.5 was für mich die 0.5 suggeriert halber Gen Sprung.

Also es scheint eher ein DLSS 4.1 zu sein, Marketing machte daraus 4.5, wenn man dann noch bedenkt das DLSS 4.5 lahmer als DLSS 4.0 ist, wirds echt ne ziemliche Luftnummer, klar wenn man ne 4090 oder ähnliche Karte hat oder 4080/5080 kann man für 1-2% mehr Speed die FPS opfern aber für die anderen die mit knappen FPS kämpfen lohnt sich die Technik wohl kaum, und bevor man noch die Latenz Maschine Framegen einschaltet spart man sich lieber die 1% bessere Bilder (im Schnitt).

Nur mal als Beispiel 9070 XT FSR AI (also 4.0 umbenannt?), packt mit quality 70.9 FPS ne 5070 Ti 70.1 FPS nur kostet ne 5070 Ti >950 Euro aber ne 9070 xt nur 600 Euro das sind 58% Aufpreis für wenige % bessere Bildqualität die man kaum sehen kann.

Das ist so ähnlich wie bei MP3 vs Wav wenn man extrem viel (platz) oder hier Geld spart aber die meisten kein Unterschied hören benutzen die meisten die "billigere" Variante.

Daher les ich den Test andersrum, das ist wie ein MP3 Test und MP3 konnte die Hälfte nicht nur kein Unterschied sehen sondern sehen "Wav" als schlechter klingend an wie "Mp3" das eigentlich verheerend da wohl niemand gemeint hat das MP3 besser klingt als Wav und man extra mit billigen Kopfhörern testen musste oder keinen niedrigen Bitraten um keinen Unterschied zu hören.

Klar man kann immer noch auf das aus meiner Sicht klar für die meisten Nutzer bessere 4.0 (wegen mehr FPS) greifen, aber man versucht ja mit 4.5 zu werben, wenn es oft mehr schadet (FPS) als nutzt, es ist wieder nur so ne Nischentechnik wo die mit >1000 Euro Karten nutzen können in manchen Spielen und dann mini Vorteile damit haben auf niedrigen fps ohne 99% Fake Frames und hohen Latenzen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Iscaran
@Brrr es gibt scheinbar Leute die tatsächlich Kopfschmerzen von TAA bekommen. Ich kann mir nicht wirklich vorstellen wie das sein muss aber es soll sie geben. Vielleicht eine sehr averse Reaktion auf Ghosting? Keine Ahnung. Naja jedenfalls bin ich aus dem Grund der Meinung, dass Entwickler die Option anbieten sollten. Im Idealfall sollten sie natürlich darauf achten, dass es ohne TAA dann immer noch Wege gibt, dass das Spiel präsentabel aussieht aber wenn das nicht machbar ist, dann könnten sie das als Option bieten und einfach eine Warnung aufpoppen lassen. Ich bekomme von Kamera Motion Blur Migräne, kann also gut die Leute die mit TAA solche Probleme haben verstehen.

@adfsrg Ja, da isr die Mesh- und Polygondichte auch eine völlig andere, die Szenen sind deutlich weniger komplex und es ist mehr als genug Rechenleistung für 4x SSAA da. Alte Spiele sehen ohne AA auch deutlich weniger schlimm aus als moderne. Aliasing war einfach viel seniger ein Problem.
 
  • Gefällt mir
Reaktionen: Grestorn
Laphonso schrieb:
DLSS Upscaling= Garantiert bessere Bildqualität bei mehr fps.

Bulletchief schrieb:
DLSS bietet eine bessere Qualität, sowohl in der Theorie, als auch - offensichtlich - praktisch.
Das kann man doch so pauschal überhaupt nicht sagen.

Das einzige was diese Umfrage aussagt, ist doch dass es Geschmackssache ist. Es gibt Leute, denen gefällt DLSS besser, oder FSR besser oder eben Nativ.

Wenn man ein paar tauschend Menschen nach der Lieblingsfarbe fragt und dann raus kommt, dass der größte Teil Blau sagt, sagt man doch hinterher auch nicht "Blau ist die beste Farbe!".

Es gibt halt unterschiedliche Menschen mit unterschiedlichen Wahrnehmungen. Ich zum Beispiel sehe Flimmern kaum bis gar nicht, oder es fällt mir nicht mehr auf, dafür mag ich Matschegrafik nicht. Weshalb ich auch beim letzten DLSS 4.5 Vs. 4.0 Vergleich gesagt hab, dass mir da 4.0 besser gefällt in Beispielsweise KCD2, weil bei 4.5 die viele Vegetation verwaschener wird.
 
@HAse_ONE Es geht hier nun mal darum was in der Gesamtheit besser ist und das ist nun mal deutlich DLSS. Was jeder noch persönlich empfindet ist ein ganz anderes Thema, der Großteil findet nun mal DLSS besser und da kann man nichts dagegen sagen.
 
  • Gefällt mir
Reaktionen: Laphonso
ziemlich schwierig! man sieht genau nur eine kurze szene. ich habe z.b. komische artefakte mit dlss wenn ich in arc raiders nahe an wände bin. je nachdem könnte im detail nativ besser sein. aber freue mich schon auf dlss5 ende jahr :)
 
Wolfgang schrieb:
@F1database
Da etwas mehr als 75 Prozent das Bild mit Upsampling besser finden bzw. keinen Unterschied aussehen, spricht das mehr gegen Nativ als jemals zuvor. Denn wir bzw. ich als Redaktion haben ja auch noch eine Meinung zu dem Thema.

Also nein, Benchmarks mit Nativ+TAA wird es auf ComputerBase in Grafikkarten-Tests weiterhin nicht geben. Und ich vermute auch generell nie mehr (außer in Sonderfällen, die schließe ich nicht aus).

Und wenn spiele wie KCD2 SMAA anbieten? Das wurde im Benchmark auf CB leider ausgespart.
 
Noch ein kleiner fun fact am Rande.
Beim Anschauen der Dreiervergleiche beschwerte sich der Videoplayer, dass die Video-Engine meiner 5080 überlastet ist. Und tatsächlich ruckelten die Videos sehr stark und blieben teilweise sogar ganz stehen.
Der Schuldige war dann aber schnell gefunden. Die Sensoren-Echtzeit-Überwachung von GPU-Z musste ich beenden. Dann ging alles wieder flüssig.

Hätte ich nicht gedacht, dass GPU-Z dermßen irgendwelche Ressourcen blockiert.
 
  • Gefällt mir
Reaktionen: 12nebur27
Zurück
Oben