Bericht Leser-Blindtest 2026: Die Community sieht DLSS 4.5 klar vor FSR und Nativ + TAA

@Quidproquo77
Danke, in deiner letzten Antwort an mich fühle ich mich überwiegend bestätigt, weil du primär ergänzt, wobei ich natürlich nicht weiß, was deine Absicht hinter der Antwort war. Scheinbar sind wir uns unterm Strich also einig, ziehen nur unterschiedliche Schlüsse daraus. Und du hast gleich wieder ein Feindbild, aber kurz und bündig:

Quidproquo77 schrieb:
ällt trotz Quality in 4K was einen Vergleich für Laien die sich nicht intensiv damit beschäftigen massiv erschwert
Quidproquo77 schrieb:
Nicht jeder ist in der Lage auf den ersten Blick Qualitätsunterschiede zu registrieren nicht jeder hat den Player richtig bedienen können und nicht jeder verfügt über einen passenden Monitor.

Damit gibst du implizit also zu, dass ein signifikanter Teil der User in der Praxis keinen großen Unterschied sieht. Welchen Wert würdest du der Erkenntnis beimessen, dass DLSS 4.5 aktuell die beste Bildqualitär liefert, in Bezug auf den durchschnittlichen Anwender/Spieler, der sich, wie du implizierst, entweder aus Unwissen, fehlender Erfahrung, oder wegen ungeeigneter Hardware keinen Unterschied erkennen würde?

Quidproquo77 schrieb:
IHV Anhängern nun umgedeutet wird, weil es nicht in das eigene Narrativ passen will.

Und wieso werden hier Leser oder Anwender, die nicht die gleichen Schlüsse aus dem Sieg sehen, wieder als "Anhänger" geframed, die einem Narrativ folgen? Geht es noch weniger theatralisch? Wie sollte man das Ergebnis denn deiner Meinung nach deuten?
 
  • Gefällt mir
Reaktionen: Iscaran
TheManneken schrieb:
die nicht die gleichen Schlüsse aus dem Sieg sehen
Ich glaube ein Fehler liegt vielleicht darin, dass es nicht um Sieg oder Niederlage geht, sondern um reine Statistik für subjektive Bewertungen. Viele verbinden Sieg und Niederlage halt auf persönlicher Ebene, was einer Diskussion selten gut tut.
 
  • Gefällt mir
Reaktionen: BeowulfAgate, TheManneken, Enyo79 und 2 andere
OK da hab ich ja bis auf HZD tatsächlich überall richtig gelegen, da hatte ich Nativ und FSR verdreht.
Klar das was man nutzt, erkennt man relativ schnell, hätte aber gedacht das ich bei Nativ und FSR öfters daneben tippe.

Die ganze Diskussion ist eher fruchtlos, jeder bevorzugt das was er kennt, die Leute sind ja noch nicht mal ehrlich zu sich selbst. Da wird gleich reingezoomt bis man den bevorzugten Modus erkennt.
Einfach mal an die eigene Ingamegröße zoomen und dann in normaler Geschwindigkeit anschauen könnte ja eine unbequeme Wahrheit aufdecken und wenn es nur für einen selbst der Fall wäre.

Damit steht man sich eigentlich nur selbst im Weg.
Die Karten sind wieder schweineteuer dabei waren sie im Dezember am 12.12 zu Bestpreisen zu bekommen.
Meine 4070 produziert eigentlich seit fast drei Jahren nur mehr FPS bei gleicher Bildqualität in UWQHD.
6700XT, 5700XT, RX 580 2 Jahre bis medium, könnte so weitergehen bis runter zur 8800GTS wobei die wie die GTX 460 3 Jahre gereicht hat.
aber 3 Jahre ohne die Notwendigkeit die Regler zu bedienen. Hab ich noch nicht erlebt mit Mittelklasse in der mittleren von drei Auflösungen.
Die Regler verschieb ich aber natürlich schon auf sinnvolle Werte.
A.Xander schrieb:
bei dem Spiel gehe ich sogar so weit runter wie es sein muss um DLDSR 1,78/DLSS Balanced nutzen zu können
Sieht halt besser aus als alles auf Max.. Das wird bei den RDNA 4 in Sachen Nutzungszeit nicht anders laufen.

Pro_Bro schrieb:
Jedes Spiel im Blindtest hat, mal abgesehen von den vielen DLSS Stimmen, mehr Stimmen für Nativ als für FSR4.
und DLSS ist kein Supersampling? Rethorische Frage weil wie es im Artikel steht.
Die Ergebnisse zeigen nur, wie häufig welche Option als „die beste Bildqualität“ gewertet wurde. Was die Ergebnisse dagegen nicht wiedergeben, ist, was als zweit- und drittschönstes empfunden wurde.
Also ja Super Sampling ist besser als Nativ. Die Behauptung seitens der Redaktion ist also nur korrekt.
Einen Bias zu unterstellen scheint mir auch sehr fragwürdig wenn gerade in CP 2077 eine für Nativ besser geeignete Szene gewählt wurde. Die unten gezeigte Szene wäre ein Nachteil für Nativ. Überall Ameisen und Kantenflimmern aus der Hölle. Nicht weg, aber besser sieht es hier mit DLSS aus.

Gilt auch für die Aussage von @zeedy
in der Vergleichsszene CP 2077 mag das so sein, sehe ich genau so weil ich das ewige Geflimmer in der Vegetation hasse. Aber am Ende bleibt es ein RTX Vorzeigetitel.
4070 mit 12GB und 185W Verbrauch.
Raster.pngPT.png
und da rede ich jetzt nicht vom offensichtlichen PT im rechten Bild, bei dem die Vegetation genauso ruhig ist wie mit Nativ in Raster, sondern von so etwas wie den Kabeln und dem Zaun über bzw. links von der Mix it Up Werbung.
Geht das so mit dem Gegenstück einer 4070 von AMD oder Intel. Ich denke nicht.
 
  • Gefällt mir
Reaktionen: Andre83hro und Grestorn
"When the pixel distance is higher
than the Nyquist limit of the
sampled signal frequencies, one
becomes jaggies"

(Aus dem von @adfsrg verlinkten Artikel)

Jetzt frage ich einfach mal, "was ist bei einem Monitorbild das Nyquist limit of sampled signal frequencies"?

Bei einem anologen Audiosignal ist es einfach: Man hat eine obere Frequenz die der Mensch hören kann. Aus diesem definiert sich das Nyquist limit (doppelte Frequenz).

Aber bei einem Monitor? Gerade wo in Bewegung sich gegen die Bildrichtung verlaufende Jaggies sofort auffallen, die man bei einem stehenden Bild nicht sehen würde?

Nein, dieser Artikel ist zwar nicht verkehrt vom Grundsatz, aber Aliasing bei Computer-Grafik mit dem Nyquist Kriterium erschlagen zu wollen, greift zu kurz.
 
pabu.roar schrieb:
Also sei du mal lieber offen für andere Meinungen.
Du sagtest nicht das für dich das Fiepen zu laut ist sondern:
Man darf natürlich auch nicht die billigsten Customs der 9070 XT nehmen, es sei denn, man steht auf Spulengeräusche.
"Man" ist ne verallgemeinernde Aussage.

Auch kann man das nicht auf 1 Firma oder 1 Modell spezifisch sagen, das kann von Charge oder Modell zu Modell unterschiedlich sein.

Sapphire hat auch immer billige Karten und ich hab damit bisher nur gute Erfahrungen gemacht. Ich finde keine negativen sachen dazu, gamernexus dazu:
1771419066172.png


Keine peaks in hohen frequenzen also kein Spulenfiepen.
https://gamersnexus.net/gpus/tearing-down-sapphires-rx-9070-xt-pulse-thermals-fan-response-noise

Du sagst es wären nur 1% das stimmt nicht Steam misst 3,6% stark wachsend, und Steam ist nicht alles, insgesamt hat man eher 5% und auf der Seite hier noch deutlich mehr. Vielleicht musstest in der Sommer/Herbst Phase nen 20er hier und da mehr blechen für Sapphire aber das ändert am Argument nicht viel es war deutlich mehr billiger als 100 Euro.
 
  • Gefällt mir
Reaktionen: Andre83hro und Grestorn
Grestorn schrieb:
Aber bei einem Monitor? Gerade wo in Bewegung sich gegen die Bildrichtung verlaufende Jaggies sofort auffallen, die man bei einem stehenden Bild nicht sehen würde?
Er versteht nicht dass die Grundsätze bei dieser Theorie um die Analog zu Digital Verarbeitung im Kern geht und nur die . D.h. beispielsweise bei einer Digitalkamera die ein analoges Signal (Licht/Objekt) mit diskreten Pixelstellen empfängt... Dann vermischt der das Halbwissen mit DLSS, PIXEL und Auflösung...
 
  • Gefällt mir
Reaktionen: ElliotAlderson und Grestorn
GerryB schrieb:
FSR4 kannste in 4k auch mit balanced oder performance nutzen


Würde mich wundern, wenn das pauschal stimmen würde. In 1440p ist teilweise auch Quality für mich nicht nutzbar. CP2077 ist ein gutes Beispiel, das Aliasing bei der Vegetation ist für mich den Performance-Gewinn von Quality im Vergleich zu NativeAA nicht wert, selbst wenn mit Quality dann volles Pathtracing drin wäre. So bleibt es für mich "nur" bei der Mischung aus PT+RT der Ultra+-Mod und dazu NativeAA.

Ich habe deshalb auch gar nicht an der Umfrage teilgenommen, für mich ist Upscaling zu oft nicht gut genug, NativeAA ist das Mittel der Wahl.
Dazu kommt natürlich die fragwürdige Umsetzung von FSR, zumindest in CP2077. Wenn man "dank" der schwachen Implementierung der Spieleentwickler die Technik ohnehin nicht bewerten kann erübrigt sich ein Vergleich zumindest mit diesen Spielen. Und CP2077 ist ja leider bekannt dafür.

Generell verstehe ich pauschale Aussagen nicht, wenn es doch nur ein paar Minuten dauert mal eben zu testen was einem am besten gefällt. Ich hab's hier schon öfter geschrieben, aber ich hab CP2077 z.B. zuerst mit einer 3070 gespielt, hatte also die Möglichkeit DLSS2 zu nutzen und das mit FSR2 (glaube ich zumindest, wimre kam FSR in CP2077 zuerst mit FSR2, oder?) zu vergleichen. Alle waren der Meinung, dass DLSS2 hoch überlegen ist, aber sobald (unterschiedliche) Bildfehler entstehen ist das mMn immer eine subjektive Entscheidung. DLSS2 hatte damals mit starkem Ghosting zu kämpfen, FSR2 mit deutlich mehr Flimmern. MICH hat das Ghosting deutlich mehr gestört, weil es gerade beim Autofahren immer negativ aufgefallen ist, das Flimmern von FSR2 hat mich deutlich seltener genervt.

Und heute sieht es für mich nicht anders aus. Mal ist Upscaling ausreichend, mal muss es NativeAA sein, in älteren Spielen nutze ich gerne weiter Downsampling, bei manchen Spielen ist auch Downsampling UND Upscaling eine gute Option, und die 9070XT lässt auch oft Downsampling und NativeAA zu...
Einfach ausprobieren. Und das gilt nicht nur für Upscaling. Heute muss man sich oft einfach ein paar Minuten Zeit nehmen, auch wenn man z.B. HDR nutzt ist das oft Pflicht, da das ab Werk wenig taugt und man mit RenoDX nachhelfen muss. Egal um was es geht, oft ist es einfach nicht gut implementiert und man muss leider selbst ran.
 
  • Gefällt mir
Reaktionen: A.Xander
Grestorn schrieb:
Aliasing bei Computer-Grafik mit dem Nyquist Kriterium erschlagen zu wollen, greift zu kurz.
Aber genau das ist es, was DLSS tut. Deswegen hart es Super Sampling im Namen
Ergänzung ()

TausendWatt schrieb:
Er versteht nicht dass die Grundsätze bei dieser Theorie um die Analog zu Digital Verarbeitung im Kern geht
Das ist ja auch nicht der Fall. Es geht nicht um analog und digital sondern um kontinuierlich und diskret. Das ein Pixelraster diskrete Werte enthält, musst du schon verstehen, ansonsten brauchst du bei dem Thema gar nicht mitreden.
 
adfsrg schrieb:
Aber genau das ist es, was DLSS tut. Deswegen hart es Super Sampling im Namen
DLSS hat nichts mit einem Nyquist Theorem zu tun. Wie wir Dir bereits 1001 mal erklärt haben, ist DLSS (und alle anderen TAA Verfahren) eine Art von SuperSampling über die Zeitachse.

Und wie jedes SuperSampling erhöht man damit die Abtastrate. Ja, das hat schon was damit zu tun, wie man ein analoges Signal quantifiziert. Aber trotzdem gibt es für eine Rasterisierung bei Computergrafik keine klar definierte Nyquist-Frequenz. Weil das Auge eben gerade in Bewegung Störeffekte (also gegenläufige Jaggies) sofort sieht, auch wenn sie noch so klein sind. Und das auch noch bei jedem Mensch anders ist.
 
  • Gefällt mir
Reaktionen: TausendWatt und ElliotAlderson
adfsrg schrieb:
und danach erst hat mir jemand den unsinnigen Tipp gegeben eine KI zu fragen und die KI hat dann erklärt, dass meine Frage absolut berechtigt war, weil es den Begriff nicht gibt und er keinen Sinn ergibt.

Rat mal was ich gemacht habe, bevor ich dir zur KI-Befragung geraten habe.

Richtig! Die KI gefragt!

Die dann erklärt hat was damit gemeint war.

Du hängst dich jetzt an der Begrifflichkeit selbst auf, anstatt einfach auf die Message dahinter einzugehen 🙃
lol.
 
  • Gefällt mir
Reaktionen: Grestorn und ElliotAlderson
adfsrg schrieb:
Das ist ja auch nicht der Fall. Es geht nicht um analog und digital sondern um kontinuierlich und diskret. Das ein Pixelraster diskrete Werte enthält, musst du schon verstehen, ansonsten brauchst du bei dem Thema gar nicht mitreden.
Ich verstehe genug um zu sehen, dass du nichts verstanden hast...
 
  • Gefällt mir
Reaktionen: Grestorn und ElliotAlderson
Grestorn schrieb:
DLSS hat nichts mit einem Nyquist Theorem zu tun. Wie wir Dir bereits 1001 mal erklärt haben, ist DLSS (und alle anderen TAA Verfahren) eine Art von SuperSampling über die Zeitachse.
Fakt ist, dass Aliasing durch die Nichteinhaltung des Abtasttheorems verursacht wird. Das kann man überall nachlesen, eine seriöse Quelle habe ich dir schon gegeben.

Fakt ist, dass Überabtastung nötig ist um Aliasing zu vermeiden.

Echtes (spatiales) Super Sampling macht genau das.

DLSS verwendet temporales Super Sampling um Aliasing zu vermeiden.
Ergänzung ()

mTw|Marco schrieb:
Die dann erklärt hat was damit gemeint war.
Ach, die KI hat dich auch aufgeklärt, dass es den Begriff so gar nicht gibt und er keinen Sinn ergibt? Und du bist nicht auf die Idee gekommen, dass meine Frage eine rhetorische war?


mTw|Marco schrieb:
Du hängst dich jetzt an der Begrifflichkeit selbst auf
Sinn und Zweck war es doch zeigt, dass er keine Ahnung hat. Wenn er hier so tut, als wüsste er, von was er redet, dann muss er auch die Begriffe richtig verwenden. Er hat aber keine Ahnung und erfindet ständig irgendwelche Dinge. Das Problem dabei ist, dass man aus erfundenen und nachweislich falschen Argumenten keine sinnvollen Schlussfolgerungen ziehen kann - zumindest nicht über den Sachverhalt, über die Person schon.
 
  • Gefällt mir
Reaktionen: Iscaran und mTw|Marco
Ok, ich habe für 2x Native, 2x DLSS und 2x FSR gestimmt. Sprich alle drei sind OK
 
  • Gefällt mir
Reaktionen: angHell
adfsrg schrieb:
Fakt ist, dass Aliasing durch die Nichteinhaltung des Abtasttheorems verursacht wird. Das kann man überall nachlesen, eine seriöse Quelle habe ich dir schon gegeben.

Fakt ist, dass Überabtastung nötig ist um Aliasing zu vermeiden.

Echtes (spatiales) Super Sampling macht genau das.

DLSS verwendet temporales Super Sampling um Aliasing zu vermeiden.
Endlich mal eine Aussage von Dir, der ich zu 100% zustimmen kann.

Und endlich sagst Du mal klar, dass DLSS keine generative oder meinetwegen restaurative AI ist. Sondern ein temporales SS Verfahren, bei dem auch AI-Techniken genutzt werden, um bei temporalem SS auftretende Artefakte zu korrigieren.
 
  • Gefällt mir
Reaktionen: TausendWatt
Grestorn schrieb:
Und endlich sagst Du mal klar, dass DLSS keine generative oder meinetwegen restaurative AI ist. Sondern ein temporales SS Verfahren, bei dem AA Techniken genutzt werden, um bei temporalem SS auftretende Artefakte zu korrigieren.
Nein, das habe ich nicht gesagt. Selbstverständlich kommt das Bild, das angezeigt wird aus einem KI-Modell. Dieses Modell erzeugt das Bild. Die Eingangsdaten bestehen aus dem aktuell gerenderten Bild in niedriger Auflösung und mehreren alten Bilder sowie Metadaten wie z.B. Bewegungsvektoren. Anhand dieser Daten erzeugt das KI-Modell das ausgegebene Bild. Also exakt so wie ich es schon zuvor erklärt habe.

Aber da du zu 100% zustimmst, brauchen wir nicht mehr drüber reden, ob Nyquist-Shannon bei Bildern anzuwenden ist. Wenigstens da bist du einsichtig und gibst offen zu, dass das was du vorher gesagt hat falsch ist.
 
  • Gefällt mir
Reaktionen: Iscaran und Andre83hro
3x nativ
1x kein unterschied in Cyberpunk 2077
1x dlss in Anno
1x fsr in The Last of Us

Interessant wahl 🤔
 
adfsrg schrieb:
Wir reden doch von DLSS SR, oder? Die gerenderten Pixel werden in niedriger Auflösung gerendert. Wenn die Auflösung niedriger ist, dann ist ein Pixel kleiner.
??
umgekehrt oder?

wenn ich weniger Pixel pro Zeile habe (bei gleicher Bildschirmgröße) müssen die Pixel bei der geringeren Auflösung größer sein um die gleiche Distanz füllen zu können


aber für die Graka ist das ja egal.. Pixel ist Pixel... der hat keine "Größe"
 
  • Gefällt mir
Reaktionen: 12nebur27, ElliotAlderson, TausendWatt und eine weitere Person
adfsrg schrieb:
Nein, das habe ich nicht gesagt. Selbstverständlich kommt das Bild, das angezeigt wird aus einem KI-Modell.
Sigh. Hopfen und Malz.
 
Grestorn schrieb:
DLSS ist keine AI die irgendwelche Bilder generiert. PUNKT.
Puh, verstehe den Punkt und stimme ihm so zu. Aber so, wie DLSS keine generative AI für Bilder im ganzen ist, so ist sie es halt eben auch doch auf Informationsebene. Ich verstehe zwar nicht, warum das wichtig ist, aber es wird zwar keine Bilderzeugung durchgeführt, aber eine Informationserzeugung. Die vorhandenen Informationen werden ja kombiniert und mit einer DL Technologie zu einer neuen Information zusammengeführt. Eine Rekonstruktion ist ebenso generativ wie eine neue Bilderzeugung. Aber es wird ja kein Bild aus einer generativen KI erzeugt. Für mich habt ihr beide Recht. Sehe da auch wenig Komplexität in dem Thema.

Nochmal: Warum ist das jetzt relevant?

Ergänzung:

adfsrg schrieb:
Nein, das habe ich nicht gesagt. Selbstverständlich kommt das Bild, das angezeigt wird aus einem KI-Modell.
Ich sehe in der Aussage keinerlei widerspruch zur Aussage von Grestorn. Ihr macht mich fertig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Return2Burn
OpenSystemFan schrieb:
Nochmal: Warum ist das jetzt relevant?
Weil eine generative oder restaurative AI nicht deterministisch ist und halluzinieren kann.

DLSS ist keine AI.
 
Zurück
Oben