Bericht Leser-Blindtest 2026: Die Community sieht DLSS 4.5 klar vor FSR und Nativ + TAA

mTw|Marco schrieb:
Es wurde doch auch in meinem Link eindeutig erklärt, dass 4.5 mehr Leistung kostet.

genau, und AMD genehmigt sich diese zusätzliche Rechenleistung beim gleichnamigen Preset nicht

mehr FPS, dafür geringere Bildqualität
fair wäre ein Vergleich der Bildqualität bei gleichen FPS

es ist wohl eher so, dass Du nicht verstehst oder nicht möchtest
 
  • Gefällt mir
Reaktionen: Andre83hro und Czk666
Das Problem ist halt die komplette nerd Medien Welt stürzt sich auf diesen Äpfel und Birnen Vergleich. Und alles was bei den Leuten hängen bleibt ist, dlss viel besser, AMD stinkt wie immer.

Das tut auch Nvidia Käufern nicht gut wenn AMD weiter Boden verliert. Das ist auch bischen die Verantwortung der Medien möglichst fair zu sein bei solchen vergleichen.

AMD mit dem Redstone Debakel und Funkstille bezüglich allem, macht es einen aber auch schwer gerade überhaupt für sie zu argumentieren.
 
Czk666 schrieb:
Aber mit welcher Begründung wurde für einen BILDQUALITÄTSTEST dann nicht 8k vs dlaa vs nativ taa vs dlss Performance vs fsr ultra Performance gestestet?? Die Vergleichbarkeit der gewonnen fps ist dann auch egal, wenn es um die QUALITÄT geht?
Warum wird dann Native nicht weiter abgestraft? Das ist ja noch viel langsamer.

Es geht eben nur um die Qualität, nicht die Performance. Beides gleichzeitig in einem Blindtest zu testen ist fast unmöglich.

Czk666 schrieb:
Das tut auch Nvidia Käufern nicht gut wenn AMD weiter Boden verliert. Das ist auch bischen die Verantwortung der Medien möglichst fair zu sein bei solchen vergleichen.
Oh, sie sind meines Erachtens oft viel zu fair gewesen, genau wie die Community. Man hat jahrelang AMD immer wieder klar Entscheidungsfehler durchgehen lassen und sie irgendwie gerechtfertigt.

Und andererseits ist NVIDIA dafür gegeißelt, dass sie "proprietäre Technik" entwickelt haben, was andere als Innovation bezeichnen würden.

Wenn sich das dann mal irgendwann merklich auf das auswirkt, was der Kunde am Ende bekommt, und sich das auch nicht mehr mit dem Preis rechtfertigen lässt, dann ist das Geschrei groß. Dann wird NVidia dafür gegeißelt, dass sie ja so unverschämt teuer sind.

Wenn AMD seine Hausaufgaben früher(!) – inzwischen fängt man ja endlich damit an, zu versuchen, zumindest dranzubleiben – gemacht hätte, dann wäre der Konkurrentsdruck auch größer und damit der Preisabstand akzeptabler.

Aber nein, man sucht die Schuld überall sonst. Bei den Medien, bei den dummen, unwissenden Käufern, bei der "Lederjacke..."
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: s0ja
Grestorn schrieb:
Warum wird dann Native nicht weiter abgestraft? Das ist ja noch viel langsamer.

Es geht eben nur um die Qualität, nicht die Performance. Beides gleichzeitig in einem Blindtest zu testen ist fast unmöglich.

Du musst doch einfach nur einen Benchmark nehmen und dann die halbwegs gleiche Performance vergleichen? Nativ kannst du meinetwegen so lassen um zu zeigen, dass die Qualität besser ist mit mehr fps.

Grestorn schrieb:
Aber nein, man sucht die Schuld überall sonst. Bei den Medien, bei den dummen, unwissenden Käufern, bei der "Lederjacke..."
Du hast schon gesehen, dass ich AMD auch kritisiert habe?
 
  • Gefällt mir
Reaktionen: Andre83hro
Czk666 schrieb:
Du musst doch einfach nur einen Benchmark nehmen und dann die halbwegs gleiche Performance vergleichen? Nativ kannst du meinetwegen so lassen um zu zeigen, dass die Qualität besser ist mit mehr fps.
Was soll das? Man kann nur EINEN Aspekt in einem Blindtest testen. Und das ist die Qualität. Wieviel einem dann die Qualität in FPS wert ist, muss jeder selber entscheiden.

Wie will man denn die Techniken auf die selbe Leistung bringen, um diesen Aspekt auszuklammern? TAA in geringerer Auflösung rendern lassen, bis es auf die selbe Leistung kommt? Dir muss doch klar sein, dass das keinen Sinn macht.

NVidia aktiviert 4.5 im Treiber ja absichtlich erst bei Performance. Denn bei Quality bringt der Modus zu wenig, um den Performance-Nachteil zu rechtfertigen.

Klar hätte man auch ein DLSS 4.0 Vergleich mit FSR 4 machen können. Ein paar Prozent mehr hätte FSR4 vlt. bekommen. Wenn Du deswegen besser schlafen kannst. Aber die Frage ist doch am Ende immer, was man vergleichen will.

Czk666 schrieb:
Du hast schon gesehen, dass ich AMD auch kritisiert habe?
Naja.
 
bogge101 schrieb:
genau, und AMD genehmigt sich diese zusätzliche Rechenleistung beim gleichnamigen Preset nicht

mehr FPS, dafür geringere Bildqualität
fair wäre ein Vergleich der Bildqualität bei gleichen FPS

es ist wohl eher so, dass Du nicht verstehst oder nicht möchtest
Doch ich verstehe, dass NVIDIAs Technologie mehr Leistung verschlingt.

Wieso sollte ich das nicht verstehen? Hat doch keiner je bestritten? Oder wo war das der Fall?

Du hast nur bis jetzt nicht verstanden, dass das hier im Bildqualitätsvergleich nicht relevant ist

Hoffe in deinem Hirn macht es nun mal endlich Kick 🤣
 
  • Gefällt mir
Reaktionen: s0ja und Grestorn
Na ganz Unrecht hat er doch auch nicht. Man kann wie hier 4k mit DLSS und FSR beide in "quality" scaling vergleichen, der gemeinsame Nenner 66,7% Renderauflösung. Dabei sind die Bildqualität, Leistung (bzw Auslastung) und Kosten unterschiedlich. Und entspricht noch nicht mal der neuesten Empfehlung, 4k performance M.

Oder man nimmt bspw 600€ Grafikkarten (aktuell 5070 und 9070) und will 90 fps, dann werden DLSS und FSR so eingestellt (render scaling, Preset K/M/L bzw 0-5), dass man jeweils das schönstmöglich rausholt. Darüber könnte man genauso blind abstimmen, was bei gleichen fps und Geld Einsatz einem besser gefällt.

Dieses Dilemma (nur umgekehrt) wird auch oft in den Benchmarks beklagt, dass unterschiedliche Qualitäten verglichen werden. So gesehen bräuchte es eigentlich immer erst einen Blindtest/Abstimmung, um zu wissen mit welchen settings verschiedene Spiele jeweils anschließend in Benchmarks verglichen werden sollten.

bogge101 schrieb:
Insofern könnte man schon Presets suchen, die vergleichbare FPS liefern und damit die Bildqualität vergleichen.

[IMG]https://www.computerbase.de/forum/attachments/img_2216-jpeg.1708213/[/IMG] [IMG]https://www.computerbase.de/forum/attachments/img_2216-jpeg.1708214/[/IMG]
Hier muss man aber aufpassen. 100% Referenz ist zwar bei beiden TAA nativ, da sind DLSS Q 5% und FSR Q 23% jeweils mit ihrem Algorithmus um diese Prozente relativ dazu dann schneller. Aber die 100% Referenz sind in absoluten fps bei beiden Karten nicht zwingend gleich.
Was ich sagen will, trotz der 23% boost könnte es in fps weniger sein, wenn die andere in TAA bspw schon 20% schneller ist. Oder andersherum, falls die Radeon in TAA schon schneller ist, ist der tatsächliche Wert am Ende noch höher, als es die 23-5=18% boost vermuten lassen.

DLSS 4.5 P "nur" 195%
IMG_1856.jpeg

FSR AI Performance zwar 199%
IMG_1857.jpeg

Trotzdem führt nVidia mit 106,7 fps zu 105,4 fps bei AMD.
IMG_1855.jpeg


Aus den ralativen vier Prozentpunkten Vorsprung gegenüber TAA werden es am Ende 1,2% weniger bei den tatsächlichen fps. Weil TAA schon 3% langsamer war. Das sieht man aber in den Diagrammen von Hardware unboxed nicht. Es wird rein die Performance von DLSS und FSR gegenübergestellt, nicht aber im Bezug auf die Performance der jeweiligen Grafikkarten.
 
  • Gefällt mir
Reaktionen: Grestorn und bogge101
Fika schrieb:
Na ganz Unrecht hat er doch auch nicht. Man kann wie hier 4k mit DLSS und FSR beide in "quality" scaling vergleichen, der gemeinsame Nenner 66,7% Renderauflösung. Dabei sind die Bildqualität, Leistung (bzw Auslastung) und Kosten unterschiedlich. Und entspricht noch nicht mal der neuesten Empfehlung, 4k performance M.

Oder man nimmt bspw 600€ Grafikkarten (aktuell 5070 und 9070) und will 90 fps, dann werden DLSS und FSR so eingestellt (render scaling, Preset K/M/L bzw 0-5), dass man jeweils das schönstmöglich rausholt. Darüber könnte man genauso blind abstimmen, was bei gleichen fps und Geld Einsatz einem besser gefällt.
Man kann alles Mögliche vergleichen; jeder Vergleich beleuchtet unterschiedliche Aspekte.

Man kann z.B. versuchen, die Ausgabequalität verschiedener Verfahren möglichst anzugleichen und anschließend die Geschwindigkeit, mit der gerendert wird, zu vergleichen. Aber da sich die Qualität so schwer angleichen lässt, speziell weil immer wieder einzelne Aspekte in bestimmten Situationen anders "gut" verarbeitet werden, ist das, wenn man sehr genau und objektiv bleiben will, fast zum Scheitern verurteilt.

Oder man stellt auf jeder Hardware die Render-Verfahren so ein, dass die Performance möglichst identisch ist, und vergleicht anschließend die Qualität der ausgegebenen Grafik. Abgesehen davon, dass es eine Sisypus-Arbeit ist, weil man für jedes Spiel und Render- oder Upscaling-Verfahren eine andere tatsächliche Renderauflösung finden muss, wäre das durchaus eine interessante Option.

Dann muss man aber bei diesem Vergleich auch bei der Rendervariante "Native" (also ohne Upscaling) die Renderauflösung so weit reduzieren, dass dieselbe Performance rauskommt. Sonst wäre es extrem unfair; damit ist aber natürlich der klare Verlierer schon vorweggenommen.

Oder man macht einen Vergleich, bei dem nur die Qualität, aber nicht die Performance, betrachtet wird. Also genau das, was Wolfgang hier gemacht hat.

Das ist m.E. der einzige mit vertretbarem Aufwand durchführbare Blindtest. Und auch der Einzige mit Aussage.

Die erste Variante – zu versuchen, die Qualität möglichst anzugleichen und anschließend Performance-Balken zu erstellen – ist ja bereits das übliche Verfahren bei Hardware- und Spieletests, auch wenn man natürlich Kompromisse machen muss.
 
@Backfisch Sagen wir so, deren Ingenieure nutzen denselben Namen für ihre Architektur. Davon auszugehen, dass das 1:1 das Gleiche ist, ist offensichtlich nicht korrekt. Auch wenn einige Konzepte u.U. übernommen wurden.
 
  • Gefällt mir
Reaktionen: bogge101
Grestorn schrieb:
Für was genau das neuronale Netz und meinetwegen auch das Transformer-Modell letztlich bei DLSS zuständig sind, weiß keiner außerhalb von NVidia
Doch, das ist vollkommen klar: Die Transformer-Schicht verwandelt den Input in eine abstrakte Darstellung (latent space representation), was anhand erlernter Muster aus den Trainingsdaten erfolgt. Diese abstrakte Darstellung wird dann im Netz weiterverarbeitet, bei ChatGPT und Co erfolgt zum Beispiel die Zuordnung einer Art "Wahrscheinlichkeitsverteilung" über dem Raum der bekannten Token.

Wie es danach weitergeht, ist in der Tat ein Betriebsgeheimnis, aber wie ein Transformer-Layer funktioniert kann man überall im Netz nachlesen :D
Ergänzung ()

Grestorn schrieb:
Sagen wir so, deren Ingenieure nutzen denselben Namen für ihre Architektur
Nein, das wird schon seine Richtigkeit haben. Transformer-Layer und Vision Transformer sind ja in ihrer Funktion eindeutig definiert und es macht auch Sinn diese für das Upsampling zu nutzen. Unklar ist nur, mit welchen anderen Layern im Netz gearbeitet wird. Du kannst nicht einfach irgendwas machen und dies als "Transformer" bezeichnen.
 
  • Gefällt mir
Reaktionen: Andre83hro
Backfisch schrieb:
Du kannst nicht einfach irgendwas machen und dies als "Transformer" bezeichnen.
Nu ja.

Sogar komische Autos die sich in Mechas verwandeln, bezeichnet man als Transformer. Also, ja, man kann alles mögliche so bezeichnen.
 
Mimir schrieb:
Eine Generative KI könnte ein gleichwertiges ergebnis erzeugen, aber niemals das gleiche.
Selbstverständlich könnte sie das: Generative Modelle werden genau darauf trainiert gewisse Zieldaten mit möglichst minimalem Verlust (siehe loss function) zu rekonstruieren ... minimal wird der loss bei exakter Rekonstruktion. Beim Autoencoder ist die Identitätsabbildung sogar genau das Trainingsziel :D

Selbst das weltweit liebste und meistgenutzte generative Modell ChatGPT wurde im Rahmen des Pre-Trainings darauf optimiert Sequenzen der Trainingsdaten möglichst exakt zu rekonstruieren. Ohne weitere Optimierungen und mit "greedy sampling" würde ChatGPT in der Praxis nur Trainingssequenzen nachplappern. Inklusive gelegentlicher Fehler ("Halluzinationen"), die sich niemals vollständig vermeiden lassen.

Edit: Okay, ich habe jetzt noch mehr haarsträubende Aussagen gelesen, inklusive "DLSS ist keine AI". Leute, lest euch bitte in das Thema ein ... so viel kann ich gar nicht korrigieren.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DeMeP, Andre83hro und Iscaran
Es gibt ja inzwischen genug Videos, die die Arbeit von DLSS bei sehr geringen Auflösungen zeigen. Man kann dort sehen, dass wenn keine temporalen Informationen vorhanden sind, DLSS ein Bild erzeugt, dass dem gleicht, was man bei einfachem Integerscaling erwarten würde. Über die Zeit werden dann Details hinzugefügt, aber wenn die Basisauflösung zu gering ist, bleibt das Zielbild unvollständig. Man kann dem Modell also beim Akkumulieren von Bildinformationen aus vergangen Frames zusehen. Wenn das Modell dabei Details annehmen würde, die im Ausgangsmaterial nicht vorhanden sind, dann würde das Modell eine neue Art von Artefakten generieren, die man der Funktionsweise des Modells zuschreiben könnte. Bisher zeigt DLSS lediglich die gleichen bekannten Artefakte, die man von anderen temporalen Verfahren bereits kennt.
Laut Nvidia wurde das Modell darauf trainiert Entscheidungen für das Akkumulieren von Bildinformation aus vergangenen Frames auf der Basis von Bewegungsvektoren zu treffen. Laut Nvidia war das CNN dabei an seine Grenzen gekommen und konnte nicht genug Kontext bei den Entscheidungen berücksichtigen. Mit dem CNN war es z.B. schwierig ein gutes Ergebnis bei animierten Texturen zu bekommen, für die es keine Bewegungsvektoren gibt.
Ja, es ist ein generatives Modell, das hier aber eher für die Klassifizierung von Akkumulationsvorgängen verwendet wird und nicht für die Rekonstruktion von fehlenden Informationen.
 
  • Gefällt mir
Reaktionen: Grestorn
Jetzt hatte endlich auch mal die Zeit mir die Auflösung und meine gewählten Favoriten mal genauer anzuschauen.

Meine Schlussfolgerung für mich:

Ich habe offenbar eine Vorliebe für nicht ganz so scharfe Bilder, eine leichte Unschärfe spricht mich ästethisch eindeutig mehr an.
Besonders auffallend war das für mich beim Video von Horizon Forbidden West.

Ich sehe aber auch ganz deutlich daß in diesem Vergleich die schärfere Variante rein technisch der leicht unscharfen Variante überlegen ist.

Kurz gesagt: Subjektiv gefällt mir FSR in der Regel besser, objektiv ist DLSS technisch besser.


Ist wie bei Audio.
Man kann einen Röhrenverstärker mit krummer Kennlinie besser finden, obwohl einem klar ist, daß ein Transistorverstärker mit linealgerader Kennlinie technisch und messbar überlegen ist.
 
  • Gefällt mir
Reaktionen: A.Xander und Nihil Baxxter
War die Reihenfolge in der ursprungs Umfrage immer die selbe? Nativ, DLSS, FSR?

Kann ich irgendwie sehen was ich gevoted habe?
 
Zuletzt bearbeitet:
Snakeeater schrieb:
War die Reihenfolge in der ursprungs Umfrage immer die selbe? Nativ, DLSS, FSR?
Nein.

Snakeeater schrieb:
Kann ich irgendwie sehen was ich gevoted habe?
Ja. Die Webseite mit der Umfrage öffnen und die einzelnen Votings anschauen. Die Option mit Deiner Stimme wird rot angezeigt.
 
Nein. Ja, kannst Du. ^^ Hier und auch im Ursprungsthema - musst halt eingeloggt sein.



So, habe mir jetzt alles durchgelesen, zumindest was noch da ist. ^^ (Ob das nun eine sinnvolle Zeitinvestition war, wage ich noch zu bezweifeln.)

Fand im Blindtest einmal TAA (Horizon, Texturen schienen mir etwas schärfer, war aber auch sehr knapp mMn) und 2x DLSS und 1x FSR (CP, da hätte ich aber auch unentschieden werten können) am besten. Den Rest hatte ich unentschieden gewertet, keins der Bilder wäre aber bei mir durchgefallen, erst recht nicht beim Spielen.


Einige Leute scheinen halt nachwievor die temporale Komponente nicht zu verstehen. Die meisten werden aber eh nicht so weit mitlesen und @adfsrg hat es glaube ich so langsam verstanden, jedenfalls teilweise. . Auch wenn es Quatsch ist, aber zum Verständnis kann man sich ja mal vorstellen. Ich habe ein Bild und dann das gleiche nochmal um ein Pixel verschoben und habe, wenn ich die zusameführe, dann schon die doppelte Auflösung. Vielelicht hilft diese einfach Vorstellung ja nochmal jemanden. ^^
Ergänzung ()

PS: Zielführender für das Verständnis fand ich allerdings die letzten 5 Seiten des folgenden threads:

https://www.computerbase.de/forum/t...in-sechs-spielen-im-blindtest.2264893/page-32

_
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Grestorn
angHell schrieb:
hat es glaube ich so langsam verstanden, jedenfalls teilweise
Ja, selbstverständlich. Temporal ist grundsätzlich schlecht, da nur auf Infos aus der Vergangenheit zugegriffen werden kann. Es entstehen also zwangsläufig Bildfehler und die bemerkt man auch im Spiel.
 
bogge101 schrieb:
fair wäre ein Vergleich der Bildqualität bei gleichen FPS

es ist wohl eher so, dass Du nicht verstehst oder nicht möchtest
@mTw|Marco hat da aber schon Recht. Natürlich sollte jeder verstehen was du meinst, aber: In diesen Test geht es laut CB EINZIG UND ALLEINE um die Bildqualität. Punkt, fertig. Heißt: Der Test wäre auch "gültig" wenn du bei DLSS nur 5% mehr FPS, bei FSR aber 100000% mehr FPS kriegen wprdest.
 
Zurück
Oben