Bericht Leser-Blindtest 2026: Die Community sieht DLSS 4.5 klar vor FSR und Nativ + TAA

longusnickus schrieb:
ich frage mich, ob hier wirklich nach bildqualität abgestimmt wurde, oder einfach nur nach "wer erkennt DLSS"
Klar das wirds sein, vor allem bei der Menge an Nvidia Boys hier bei AMD-Base... äh Computerbase wollte man den pösen AMDlern sicher nur eins auswischen...
 
  • Gefällt mir
Reaktionen: Brrr und MalWiederIch
Grestorn schrieb:
Wie da trainiert wird, weiß keiner. Ich denke, es wird schon trainiert, damit Okklusion erkannt wird und wie durch Bewegung neu ins Bild kommende Bereiche am besten so rekonstruiert werden können, dass trotz mangelnder Details in den bislang unsichtbaren Bereichen das möglichst wenig auffällt.

Und auch wie mit Motion-Vektoren am effizientesten umzugehen ist, wie sich bewegende Objekte ohne Motion-Vektoren erkannt werden (Partikel z.B.) und richtig behandelt werden, usw.

All so was.

Aber eben keine konkreten Bilddaten. Das kann ich mir so einfach nicht vorstellen. Das Netz würde schlicht explodieren.

Das ist es, was ich meine. Einige hier haben eine viel zu simple Vorstellung von dem Verfahren.
So nach dem Motto "Lernt der AI mal wie Spiele aussehen, dann wird sie schon das Richtige generieren!"

(nein, das ist nicht auf Dich bezogen!)
Gut, du meinst also das das Transformator Model direkt auf die Render-Pipeline Daten zugreifen kann, statt auf die puren Pixel des fertigen Bildes. Fair. Kann gut sein, dass dann am Ende der Schritt der Bildkomposition nicht stattfindet. Dann würde das Model mit diesen Daten trainiert werden und einem fertigen Bild um zu verstehen wie er den Input zu transformieren hat. Wir sind uns noch einig das DLSS ein Transformator-Model ist was lokal auf der GPU läuft?
 
  • Gefällt mir
Reaktionen: Grestorn
Lakinator schrieb:
Ist halt Ansichtssache, ich empfinde das "pixelige", "rohe" Bild eben als schärfer, als das "verschwommene", "geglättete" Bild durch TAA, DLSS etc.
Also dann viel lieber CMAA oder noch besser SMAA. Sind wie FXAA, aber schärfer
 
  • Gefällt mir
Reaktionen: Iscaran und Lakinator
Bregor schrieb:
Gut, du meinst also das das Transformator Model direkt auf die Render-Pipeline Daten zugreifen kann, statt auf die puren Pixel des fertigen Bildes. Fair. Kann gut sein, dass dann am Ende der Schritt der Bildkomposition nicht stattfindet. Dann würde das Model mit diesen Daten trainiert werden und einem fertigen Bild um zu verstehen wie er den Input zu transformieren hat. Wir sind uns noch einig das DLSS ein Transformator-Model ist was lokal auf der GPU läuft?
Ja, das habe ich auch nicht bestritten, aber eben nicht zur Generierung und damit zur "Erfindung" von irgendwelchen Bilddaten.
 
  • Gefällt mir
Reaktionen: Snapuman
jo0 schrieb:
Also dann viel lieber CMAA oder noch besser SMAA. Sind wie FXAA, aber schärfer
Sie haben alle dasselbe Problem, dass sie mit den wenigen Daten auskommen müssen, die das rasterisierte native Bild nun mal hat.

Nur echtes Supersampling und eben temporales Supersampling können auf deutlich mehr Detailinformationen zurückgreifen und deswegen ein echt detailliertes, anti-Aliasedes Bild erstellen.
 
  • Gefällt mir
Reaktionen: sethdiabolos
MalWiederIch schrieb:
Bestimmt :p Würde nur zu gut zu deinen Wunschvorstellungen passen wenn man deine sonstigen geistigen Ergüsse gelesen hat …
Warum sollte ich lügen ? Ich scheine echt anders als die Masse abgestimmt zu haben.
Soll ich Screenshots aller Antworten anhängen oder reicht dir der hier ?
1771340508572.png
 
  • Gefällt mir
Reaktionen: angHell und Andre83hro
Grestorn schrieb:
Wie da trainiert wird, weiß keiner.
ist mal etwas durchgesickert das mit UE5 und auf 16k Auflösung trainiert wird, viel mehr ist da nicht bekannt, zu AMD noch weniger.
 
Return2Burn schrieb:
Für mich wäre ein Blindtest dahingehend noch mal spannend, wenn jeder Jedes Video nur einmal sehen könnte, ohne Zoom und ohne Wiederholung. Ich wette darauf, das bei "ich sehe keinen Unterschied" die Prozentzahl massiv anwachsen würde.
Wir reden hier von Quality-Preset. Es wird bereits erwartet, dass es besser oder gleichwertig zu nativ ist. Die Upscaler hier erreichen das Ziel, so dass man zumindest bei DLSS sogar noch ein Preset runtergehen kann bis es zum Glücksspiel wird, zu erkennen, was besser ist. Die Kunst ist es also Zukunft, mit noch weniger Input auf ein "ich sehe keinen Unterschied" zu kommen.
 
Nighteye schrieb:
Warum sollte ich lügen ? Ich scheine echt anders als die Masse abgestimmt zu haben.
Soll ich Screenshots aller Antworten anhängen oder reicht dir der hier ?
Anhang anzeigen 1706969
Sei doch froh, dann wird dich FSR3.x auf deiner 6000er Karte auch nicht so weh tun...
 
  • Gefällt mir
Reaktionen: Nighteye
Meine alten Augen schwimmen wohl gegen den Strom, oder mein alter FHD‑Monitor gibt hier einfach nicht mehr her,

Anno 117 – Nativ
ARC Raiders – Nativ
Cyberpunk 2077 – FSR
Horizon Forbidden West – Ich kann da keinen Unterschied erkennen
Satisfactory – FSR
The Last of Us Part II – FSR

Ich möchte aber auch sagen, dass ich persönlich kein Fan von überzeichnetem Kontrast oder Scharfzeichnern bin. Wahrscheinlich würde es mir bei Spielen auch nicht wirklich auffallen, für mich sind die Unterschiede so marginal.

Für mich zählt der Spielspaß, egal ob AAA‑Blockbuster oder Retro‑Perle.
Wenn der nicht stimmt, ist die Grafik auch egal. Wenn ein Spiel einen nicht packt, spiele man es sowieso nicht.

Und bei FHD macht es für mich keinen Unterschied, ob nun nativ, FSR Quality oder FSR Native.
Meine RX 9070 ist eh mit V‑Sync auf 60 FPS limitiert, da ist der Modus fast schon egal.

So, nun steinigt mich > ist mir egal. ^^
 
  • Gefällt mir
Reaktionen: Brrr, tomsen78 und Return2Burn
MalWiederIch schrieb:
Apropos - warum sind hier Stimmabgaben zu nicht-politischen Themen eigentlich überhaupt anonym?
Wäre doch interessant, wie das Ergebnis mancher Nutzer hier wirklich ausfällt

So "manchem Nutzer" würde das sicherlich gefallen.
 
  • Gefällt mir
Reaktionen: 12nebur27
Ich hab in den ersten Seiten direkt wieder x-fach gelesen, wie viel geiler ältere AA Techniken seien als TAA und wie unfair die Redaktion doch sei TAA zu verwenden, nur um das angeblich gewünschte Ergebnis von "DLSS/FSR besser als Nativ" zu erreichen.

Bei AntiAliasing geht es um das ruhig stellen von flimmernden Kanten in Bewegung.

(Bewegt-)Bilder zeigen mehr als Worte: Digital Foundry hat einen Beitrag zu TAA und den Vergleich zu älteren Techniken.
Tech Focus: TAA - Blessing Or Curse? Temporal Anti-Aliasing Deep Dive

Es wird hoffentlich allen ersichtlich warum bis auf SSAA, keine alte AA Technik mithalten kann. Und SSAA würde heutige Grafik nicht erlauben.

TAA ist nicht perfekt, aber das Beste was man vor DLSS/FSR/etc. hatte. Deswegen wurde es ja weiterentwickelt und wir haben heute DLSS etc.

Aber TAA war bzw ist der letzte Entwicklungsstand der noch nativ war.
 
  • Gefällt mir
Reaktionen: Quidproquo77
TheInvisible schrieb:
CB und Nvidia hypen, der war jetzt echt gut :lol:
Seh ich anders, sicher vielleicht nicht Nvidia exclusive aber generell einfach alles was nicht AMD ist, sicher FSR4 hat zurecht relativ gute Presse bekommen das wäre ja auch lächerlich hätte man das komplett schlecht geredet, damit würde man sich ja komplett disqualifizieren.

Aber alleine wie immer der Intel Hype neben UVP Preisen die wir doch inzwischen gelernt haben sollten irrelevante Preise sind, auch angekündigte Preise sind irrelevant, also der Hype um Intel Prozessoren aber auch immer um Intel Grafik jetzt packt man sie schon in ne Empfehlung rein, warum auch immer unter Linux sind die Dinger totaler Schrott.

Auch Lunar Lake hat man den hohen Preis ignoriert und sich nur auf den Hype von Intel ein gelassen obwohl da AMD klar die bessere Wahl war da (fast) niemand 15-20h Akkulaufzeit braucht. Auch das die Top Halo Intel CPUs immer mit Strix Point verglichen wird ist absurd...

Es ist sehr schwer die Podcasts jetzt auseinander zu pflügen da der Titel und der Inhalt und der Ton doch teils anders ist und mit Text suche ist das schwer zu finden, aber da wird sich teils auch extrem negativ über AMD aus gelassen.

Es ist sicher nicht komplett einseitig das NUR total negativ über AMD und nur total Positiv über Nvidia geredet wird.

Ne 9070XT ist billiger jetzt wie ne 5070 mit 12gb und ne vergleichbare 5070 Ti ist über 50% teurer, was seh ich hier:
"Erste Nvidia und AMD Karten werden wieder günstiger"
"steigende Preise bringen Intel Arc erstmals wieder in die Empfehlung"
"Radeon Overclocking"

Was ist wichtiger 5 Artikel zu DLSS 4.5 vs 0 Artikel das ne 9070 XT ein direkter 5070 Ti Konkurrenz weniger kostet wie ne 5070? Klar Aktualität ist auch ein Thema neben Wichtigkeit, aber ich finde Wichtigkeit sollte man nicht komplett Aktualität opfern, weil Aktualität geht man immer auf den Leim von Marketingabteilungen von Firmen die Releases so legen das die Pressewirkung Optimal ist, man macht sich damit zu nem Tool dieser Firmen.

Wie auch immer ich behaupte nicht das es ein riesen Bias hier gibt, aber du behauptest ja umgekehrt das es einen massiven Pro AMD oder Contra Nvidia Bias hier gäbe Beleg den doch bitte mal.

Und ja dieser UVP Fokus das man da nicht sagt "ok denen können wir nicht mehr glauben" redet man bei Intel weiter über angekündigte Preise als ob das irgendwas mit der Realität zu tun hätte.

Man ist bereit immer erst zu hypen und dann im Zweifel den hype zu relativieren wenn die Realität sich dann anders heraus stellt, aber man belohnt die Firmen für Fake UVPs und Paper launches oder Fake Preisen wie es Nvidia gemacht hat mit ihren komischen Programmen...

Da Nvidia und Intel diese Marketingoptionen eher ziehen leidet darunter AMD.

Das ist generell ein Ding hier von dieser neuen Logitech Maus hat man sich auch sehr hypen lassen Dinge werden immer unabhängig vom Preis erstmal gelobt, ja der Preis ist dann hinterher irgendwie auch bisschen berücksichtigt... zumal das Fazit war "es ist anders" ok, aber ob es wirklich besser ist ist unklar bzw wahrscheinlich sogar schlechter weil es kein klaren klick mehr gibt...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: eXe777, Iscaran, daknoll und eine weitere Person
Nighteye schrieb:
Bei mir kam nur FSR raus. Kein einziges mal DLSS oder Nativ. Seltsam.
Vielleicht weil wir als Nutzer schon an FSR bzw. DLSS gewöhnt sind. Würde halt auch bedeuten, dass viele bei CB noch nativ unterwegs sind :D
 
  • Gefällt mir
Reaktionen: Quidproquo77, Nighteye und ElliotAlderson
adfsrg schrieb:
Zitier doch bitte welchen Teil du genau meinst, dann kann man dir helfen deinen Fehler zu verstehen
https://en.wikipedia.org/wiki/Deep_Learning_Super_Sampling#DLSS_2

Wenn Du das liest, mach Dir bitte klar, dass dort zwar immer wieder geschrieben wird, dass AI eingesetzt wird für alles Mögliche – aber man schreibt immer, dass DLSS die Bilder generiert, nicht die AI!

Die AI wird eben, wie ich gefühlt zum 1000x geschrieben habe, nur dazu eingesetzt, die Probleme und Artefakte des temporalen Supersamplings zu bekämpfen.


Und damit Du nicht wieder mit dem Transformer-Modell kommst: Das Einzige, was zu DLSS 4 (Transformer) geschrieben wird, ist Folgendes:

"The fourth generation of DLSS was unveiled alongside the GeForce RTX 50 series. DLSS 4 upscaling uses a new vision transformer-based model for enhanced image quality with reduced ghosting and greater image stability in motion compared to the previous convolutional neural network (CNN) model."

Da steht immer noch nicht, dass die Bilder mit Transformer GENERIERT werden. Sondern dass das Transformer-Modell eingesetzt wird, um die Bildqualität zu verbessern - auf welche Weise steht da nicht. Es ist auch nicht bekannt.

Und wenn etwas generiert wird, dann sind es die FG-Zwischenbilder. Aber auch da ist die AI nicht am Generieren der ganzen Bilder, sondern wird sicher nur dazu verwendet, einzelne Objekte und die ganze Szene (bei Bewegung) "intelligent" zu verschieben.
 
Grestorn schrieb:
Nur echtes Supersampling und eben temporales Supersampling können auf deutlich mehr Detailinformationen zurückgreifen
DLSS ist nicht nur ein dummer Algo, das Modell wurde mit 16k Auflösung trainiert und kann daher doch auf mehr Detailinformationen zurückgreifen
 
  • Gefällt mir
Reaktionen: Iscaran und adfsrg
GerryB schrieb:
im Mittel also nur 50% für DLSS 4.5
heisst, jeder Zweite konnte also den Vorteil nicht erkennen, kann daraus dann keinen Kaufzwang für die teuere
NV-Hardware ableiten bzw. ist mit ner anderen Lösung auch "zufrieden"
Du hast das Fazit des Blindtests entweder gar nicht verstanden, oder es triggert dich hart das AMD so schlecht abschneidet bzw. Nvidia dominiert.
Einen anderen Schluss lässt dein Kommentar nicht zu.
 
  • Gefällt mir
Reaktionen: Quidproquo77, NguyenV3, serve1chilled und 3 andere
Zurück
Oben