Bericht Leser-Blindtest 2026: Die Community sieht DLSS 4.5 klar vor FSR und Nativ + TAA

Mimir schrieb:
Unter "Generieren" versteht man bei KI halt idr. dass ein Bild eher auf basis einer groben Beschreibung "erdacht" wird.
Oh, das ist ein Irrtum. Schau doch mal auf Wikipedia:
Der Begriff generativ bedeutet bei künstlicher Intelligenz (KI), dass KI-Systeme aus Eingaben mittels generativer Modelle und gespeicherter Lerndaten neue Ergebnisse/Ausgaben wie Texte, Sprachaussagen, Vertonungen, Bilder oder Videos erzeugen. Generative KI-Modelle erlernen Muster und Strukturen vorgängig eingegebener Trainingsdaten und generieren daraus neue Daten mit ähnlichen Eigenschaften.

In der statistischen Klassifikation von KI gibt es zwei Hauptansätze, die als der generative Ansatz und der diskriminative Ansatz bezeichnet werden. Beide Ansätze berechnen Klassifikatoren durch unterschiedliche Methoden und unterscheiden sich im Grad der statistischen Modellierung.
Quelle: https://de.wikipedia.org/wiki/Generatives_KI-Modell

Wenn man im Kontext KI von "Generieren" spricht, dann meint man also, dass die KI etwas erzeugt und nicht wie bei diskriminativer KI etwas klassifiziert. Dass DLSS Bilder generiert ist doch offensichtlich.

Mimir schrieb:
Man kann sich die KI hier wahrscheinlich eher als extrem leistungsfähigen und intelligenten Sortier- und Mustererkennungsalgorithmus vorstellen, der die Vorarbeit leistet, indem er die Daten die als input kommen richtig interpretiert und sortiert und dann die Daten bereitstellt auf basis derer dann das fertige Bild erst zusammengesetzt wird.
Das ist einfach nur falsch. Der Output des KI-Modells ist doch direkt das Bild, das dargestellt wird. Es ist nicht so, dass die Daten bereits vorhanden sind und die KI diese nur sortieren muss. Wem würde denn die KI in deiner Vorstellung diese Daten bereitstellen und wer würde daraus das Bild zusammensetzen?
Mimir schrieb:
Der KI wird also nicht einfach beim Training gesagt "Hier low res bild -> mach bitte high res bild" sondern eher "hier ist das TAA prinzip, hier sind die Bilddaten, versuche trotz bewegung im Bild das signal-to-noise ratio so hoch wie möglich zu halten" Und damit ist die KI automatisch strikt an den Input gebunden und hat keine Möglichkeit, Daten zu generieren. Es geht nur um Mustererkennung, Sortierung und Interpretation der Daten.
Die KI bekommt mehr Input als ein low res Bild. Zum einen sind es mehrere und dann kommen noch weitere Daten hinzu. Die KI bekommt auch nicht gesagt, dass sie ähnlich wie TAA arbeiten soll. Die KI bekommt neben den eben erwähnten Daten noch die sogenannte Ground Truth in Form von Bildern, die deutlich höher aufgelöst sind. Das Modell wird darauf trainiert mit den gegebenen Inputs einen Output zu generieren, der möglichst genau mit der Ground Truth übereinstimmt.
Ergänzung ()

ElliotAlderson schrieb:
Willste nicht nochmal Gemini fragen und dann hier so tun als hättest du Ahnung?
Du bist lustig. Lies doch einfach den gesamten Gesprächsverlauf bevor du hier so frech wirst und dann lies hier weiter...

Ach, aus dem vorherigen Gesprächsverlauf geht klar hervor, dass ich schon vorher Ahnung hatte, und nur deswegen die Frage gestellt habe und danach erst hat mir jemand den unsinnigen Tipp gegeben eine KI zu fragen und die KI hat dann erklärt, dass meine Frage absolut berechtigt war, weil es den Begriff nicht gibt und er keinen Sinn ergibt.
adfsrg schrieb:
Was sollen "temporal gerenderten Daten" sein? lol

mTw|Marco schrieb:
Nicht böse gemeint, aber sowohl Google als auch ChatGPT kann dir das anstandslos beantworten. lol.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: OpenSystemFan und Andre83hro
Erwartbares Ergebnis.
Ausgezeichneter Kommentar im Artikel zur Einordnung.

Pures Pixel peeping, ausgehend von Stillbildern und 100%+ Vergrößerung, also fern der Realität.

Als Showcase aber in der Tat sehr gute Idee.
 
Also eigentlich ist es doch irrelevant, wie hier "alle" abgestimmt haben und ob man sich da repräsentiert sieht oder nicht. Zumindest wüsste ich nicht, welchen Nutzen ich da raus ziehen sollte.

Entscheidend bei diesem Blindtest ist doch, wie man selbst ohne Voreingenommenheit abgestimmt hat und was man für sich nun aus der "Offenlegung" lernt.

Der/die ein oder andere wurde von seinem Abstimmungsergebnis überrascht und kann bisherige Annahmen relativieren, andere wiederum sehen ihre bestätigt.

Man prüft hier am Ende nur sich selbst und kann entsprechend Schlüsse ziehen für das zukünftige Kauf- und oder Grafikoptionsmenüverhalten.
 
  • Gefällt mir
Reaktionen: DaR3aper, RaptorTP, Iscaran und 9 andere
adfsrg schrieb:
Du bist lustig. Lies doch einfach den gesamten Gesprächsverlauf bevor du hier so frech wirst und dann lies hier weiter...
Ich brauch nichts lesen. Du behauptest den Durchblick zu haben und besser als alle anderen zu wissen, wie DLSS funktioniert, musst aber Gemini befragen, weil du keine Ahnung hast. Wenn du die Ironie selbst nicht erkennst, dann weiß ich auch nicht.
 
  • Gefällt mir
Reaktionen: usmave, Grestorn und DaHell63
adfsrg schrieb:
Oh, das ist ein Irrtum. Schau doch mal auf Wikipedia:

Deine Quelle bestätigt nur meine Aussagen.


adfsrg schrieb:
Wenn man im Kontext KI von "Generieren" spricht, dann meint man also, dass die KI etwas erzeugt und nicht wie bei diskriminativer KI etwas klassifiziert. Dass DLSS Bilder generiert ist doch offensichtlich.

adfsrg schrieb:
Der Output des KI-Modells ist doch direkt das Bild, das dargestellt wird. Es ist nicht so, dass die Daten bereits vorhanden sind und die KI diese nur sortieren muss.

Doch genau das ist der Fall. DLSS hat die Aufgabe auf basis der temporalen Daten aus vorherigen Frames das signal-to-noise ratio möglichst hoch zu halten. Das Signal ist in dem Fall das scharfe bild, und die noise sind Bildstörungen in Form von Unschärfe, Flimmern und Aliasing.

Temporale Akkumulation ist das Funktionsprinzip das letztendlich das Finale Bild mit erhöhtem Detailgrad in höherer Auflösung erzeugt. Damit das aber möglichst gut funktioniert, muss die KI den Input möglichst intelligent interpretieren, um eben DANN erst durch die Akkumulation der Daten den Detailgrad erhöhen zu können.

Es geht nicht darum Daten zu generieren, sondern die vorhandenen Daten möglichst intelligent zu verstehen und zu sortieren. Nochmal: DLSS erfindet nichts. Es kann nichts erfinden, sonst würde es nicht an die Referenz heran kommen, sondern schlichtweg "anders" aussehen. Es ist völlig unmöglich, dass eine KI auf basis eines niedrig aufgelösten Inputs von selbst das Ergebnis des hochauflösenden Bildes 1:1 nachbilden kann. Eine Generative KI könnte ein gleichwertiges ergebnis erzeugen, aber niemals das gleiche. DLSS hingegen erzeugt kein gleichwertiges ergebenis sondern ein gleiches - zumindest soweit das auf Basis der Inputdaten möglich ist. Wenn Bildinformationen im Input nicht vorhanden sind, dann kann DLSS auch nicht zaubern oder was dazu erfinden. Wenn es unsicher ist gibts einfach nur Artefakte in Form von Bildrauschen oder Unschärfe. Aber keine halluzinierten Details die nicht im Input vorhanden waren.
 
  • Gefällt mir
Reaktionen: usmave, ElliotAlderson und Grestorn
Es sind nicht "keine" Daten für die Grafik hinter dem sich wegbewegten Objekt vorhanden. Es wird ja durchaus gerendert an der Stelle, und mindestens ein Frame hat man immer mit aktuellen Bildinformationen von neu sichtbar gewordenen Bereichen.

DLSS muss also den sichtbar gewordenen Bereich nicht erfinden.

Es muss "nur" dafür sorgen, dass erkannt wird, dass sich das Objekt wegbewegt hat, damit es nicht zu Smearing kommt. Und natürlich die für 3-5 Frames fehlenden Detaildaten (wegen geringerer Renderauflösung) interpolieren. Aber ohne Zeitlupe und Zoom wird man das kaum wahrnehmen können, und wenn dann nur in P oder UP.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mimir
TheInvisible schrieb:
Was siehst du wieder was ich nicht sehe, auch dort ist DLSS vorn oder welche Erbsen willst jetzt zählen?
Wenn DLSS in dem Nvidia Technologie Vorzeigetitel mit 2%-Pünktchen "vorne" ist, und DLSS Nutzer im Blindtest trotz bestmöglicher Qualität oft Nativ als bestes Bild wählen, dann sind das nicht gerade überzeugende DLSS Argumente. Ist diese Schlussfolgerung für dich wirklich nicht offensichtlich?
 
  • Gefällt mir
Reaktionen: Andre83hro
@zeedy

Du darfst gerne spielen, wie Du willst. Wenn Du aber PathTracing abschalten musst, weil Du sonst nicht genügend FPS für Native hast, dann solltest Du Deine Argumentation vielleicht nochmal überprüfen.

Offensichtlich ist in dieser Szene praktisch kein Qualitätsunterschied auszumachen, in keinem der drei Verfahren. PT auszuschalten (oder andere Grafikfeatures) wird aber sehr wohl einen Unterschied machen.

So ganz kann ich Deine Argumentation deswegen nicht nachvollziehen.
Ergänzung ()

Sorry, Leute, aber merkt ihr nicht wie ihr hier getrollt werdet? Ich hab schon längst gemerkt, dass mich der Typ aufzieht, bzw. aus der Reserve locken möchte. Irgendwann muss man bestimmte Menschen einfach ignorieren, das ist einfach gesünder.

(Da das ans selbe Posting gehängt wurde: Dieser Absatz bezieht sich nicht auf zeedy. Nur um Missverständnissen aus dem Weg zu gehen).
 
Zuletzt bearbeitet:
Grestorn schrieb:
So ganz kann ich Deine Argumentation deswegen nicht nachvollziehen.
Es ging um die Interpretation der Ergebnisse, nicht um die Sinnhaftigkeit von Upscaling. Ich bin selbst ein Befürworter und spiele immer mit FSR4 bzw DLSS.
 
  • Gefällt mir
Reaktionen: Pisaro, Fika, Grestorn und eine weitere Person
Pilstrinker schrieb:
Wenn aber trotz des Hypes um DLSS 4.5 dann im Blindtest nicht einmel jeder 2. eine bessere BQ erkennen kann, darf man diesen Umstand ja wohl erwähnen.
hmm..
für mich sieht das anders aus...

DLSS, als es aufkam: da gings darum, dass man mehr FPS hinbekommt, gewisse Titel überhaupt erst (mit RT) spielbar werden

und jetzt ist man soweit, dass ein "nur jeder 2te findet dass das bild mit DLSS BESSER ausschaut als ohne" als Negativpunkt für DLSS gesehen wird ?

Leute..
es bringt nicht nur mehr Performance, es ist sogar soweit, dass es in vielen Fällen (für viele Leute) sogar BESSER ausschaut als nativ !!

wer hätte das vor paar Jahren in den Anfängen von DLSS je gedacht...
da gings nur um Performance und die Hoffnung das zukünftige Varianten nicht soviel schlechter ausschauen werden als Nativ

und jetzt diskutieren wir darüber dass es BESSER ausschaut als nativ..
und die meisten sehen es auch so, was der Blindtest ja gezeigt hat
weder Nativ noch FSR konnte soviele stimmen für sich vereinnahmen wie DLSS
 
  • Gefällt mir
Reaktionen: Grestorn
Taxxor schrieb:
Da wäre ein gutes Upscaling ja nochmal wichtiger^^
Ich bin jetzt davon ausgegangen, dass es in 4 Jahren mehr Spiele mit fsr 4 Support gibt und mit dann raytracing Features oder whatever fehlen würden. Aber gut, ich gebe zu, das kann, muss aber nicht so sein.
 
Ich habe jetzt mal selber KI ein paar Quellen auswerten lassen, damit ich zumindest ne Ahnung habe, was DLSS hier dann eigentlich macht. Die Zusammenfassung ergab dann hier folgendes:

DLSS 4 erzeugt kein vollständig KI-generiertes Bild, sondern ein klassisch gerendertes Bild mit neuronaler Rekonstruktion fehlender Bildinformationen.
Dabei wird auf der GPU ein trainiertes neuronales Netzwerk in Echtzeit ausgeführt, nicht nur ein statischer von KI entworfener Algorithmus.

Vielleicht ist das ja für die sich im Kreis drehende Diskussion relevant. Allerdings kann natürlich auch hier die KI-Fehler bei der Auswertung gemacht haben. Der Prompt und die Quellen bezogen sich hier explizit auf DLSS4 und 4.5.
 
  • Gefällt mir
Reaktionen: Iscaran und Grestorn
zeedy schrieb:
Es ging um die Interpretation der Ergebnisse, nicht um die Sinnhaftigkeit von Upscaling. Ich bin selbst ein Befürworter und spiele immer mit FSR4 bzw DLSS.
Bei der Interpretation der Ergebnisse ist es aber auch wichtig zu berücksichtigen, dass Native einfach auch langsamer ist. Selbst wenn es statistisch(!) und in dieser einen Szene(!) von vielen als optisch gleichwertig mit DLSS angesehen wurde.

Das "optisch gleichwertig" kann sich ja offensichtlich nicht auf die Framerate beziehen, die spielt aber eben auch eine Rolle.

Du scheinst irgendwie so ein "hähä" Richtung NVidia schicken zu wollen, "ihr seid ja doch nicht wirklich besser als Native mit Eurem DLSS". Ich hab damit kein Problem, jeder soll glücklich werden mit dem was er möchte. Aber ich kann diese Häme irgendwie logisch nicht ganz nachvollziehen.
 
Pilstrinker schrieb:
Wenn aber trotz des Hypes um DLSS 4.5 dann im Blindtest nicht einmel jeder 2. eine bessere BQ erkennen kann, darf man diesen Umstand ja wohl erwähnen.
Geht es aber nicht darum, zu widerlegen, dass eben DLSS und FSR das Bild verschlimmbessern würden...?

Denn aus dieser Warte heraus, sieht man eindeutig, dass mehr als 50%-60% (FSR und DLSS) und (noch ein paar Prozent keinen Unterscheid erkennen) lieber zu einen Upscaler tendieren und das obwohl es immer hieß, Nativ bestes verfahren...?
Für mich entnehme ich aus dem Ergebnis, dass wir trotz niedriger Renderauflösung zumindest ein gleichwertiges Bild erhalten, mit dem positiven Nebeneffekt -> Mehr FPS, höhere Stabilität und knackiger/schärfer und das die meisten so sehen. Ob nun DLSS oder FSR auf platz 1 steht ist zweitrangig, einer ist immer besser, wichtig ist die Erkenntnis, dass die deutliche Mehrheit Upscaler in Front sieht, bzw. zustimmt dass es keinen Unterscheid gibt.

Die Aufstellung wie ich sie interpretiere. Die Kategorie "ich sehe kein unterschied" zähle ich als Pluspunkt für die Upscaler, denn diese Stimmen werden wohl eher einen Upscaler nutzen, aufgrund der positiven Nebeneffekte und stimmen zu das der Upscaler ein gleichwertiges Bild generiert. Damit ist die Tendenz wohl klar.

Games
Upscaler FSR/DLSS, kein Unterschied
nativ
Anno7723
Arc Raiders7327
Cyberpunk6832
HFW8020
Satisfactory8515
TLOU7525


Edit: zu dem Thema DLSS und FSR

Ein Blindtest FSR4 vs Nativ ohne dLSS Beteiligung würde in etwa m.M.n das Ergebnis für FSR auf das Niveau von DLSS heben. Damit ist klar, wenn ein gutes und ein noch besseres Verfahren gegeneinander und gegen ein schlechtes Verfahren antreten, wird trotzdem nur einer den Sieg davon tragen, dass gute wird aber deutlich schlechter dastehen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CadillacFan77, Kraeuterbutter, Enyo79 und eine weitere Person
Return2Burn schrieb:
DLSS 4 erzeugt kein vollständig KI-generiertes Bild
Der Satz ist leicht misszuverstehen. Es ist zweifelsfrei vollständig KI-generiert in dem Sinn, dass jedes einzelne Pixel des Outputs aus der KI stammt. Es ist selbstverständlich nicht vollständig KI-generiert in dem Sinne, dass die KI nur einen einfachen Textprompt bekommt und daraus das Bild generiert. Das was nicht KI-generiert ist, sind die Eingangsdaten für das Modell. Der Output ist also vollständig und deterministisch KI-generiert auf Basis der Eingangsdaten.

Aber KIs sind für solche Recherchen nicht gut geeignet. Am besten schaut man sich an, was der Entwickler selbst dazu schreibt, der muss es wissen:
DLSS Super Resolution boosts performance by using AI to output higher-resolution frames from a lower-resolution input. DLSS samples multiple lower-resolution images and uses motion data and feedback from prior frames to construct high-quality images. A new second-generation Transformer AI model further improves stability, anti-aliasing, and visual clarity.
Quelle: https://developer.nvidia.com/rtx/dlss

Daraus geht doch klar hervor, dass das hoch aufgelöste Bild der Output der KI ist.
 
  • Gefällt mir
Reaktionen: Andre83hro
Es ist Output von DLSS.

Du liest DLSS und ersetzt das im Kopf mit AI. So einfach ist es aber nicht.
 
  • Gefällt mir
Reaktionen: s0ja
TheManneken schrieb:
Wenn der Vergleich objektiv wäre, bräuchte es keinen Blindtest,
Dass DLSS 4.5 das beste Bild liefert weiß man bereits aus den Testberichten, die das einhellig so sehen. HWU, PCGH, CB, Digital Foundry usw. und die Redaktionen halte ich sehr wohl für objektiv, der Blindtest ist mehr oder weniger nur die Bestätigung dessen und fällt trotz Quality in 4K was einen Vergleich für Laien die sich nicht intensiv damit beschäftigen massiv erschwert deutlich aus, aber von den üblichen IHV Anhängern nun umgedeutet wird, weil es nicht in das eigene Narrativ passen will.
TheManneken schrieb:
sondern schlicht ein Testergebnis à la "DLSS 4.5 ist das beste - Punkt"
Das ist auch das Ergebnis des Blindtests. DLSS beste, ist so.
Selbst wenn man FSR 3 in Performance-Modus mit reingenommen hätte, hätten 5-10% dafür gestimmt. Nicht jeder ist in der Lage auf den ersten Blick Qualitätsunterschiede zu registrieren nicht jeder hat den Player richtig bedienen können und nicht jeder verfügt über einen passenden Monitor.

Dazu kommt auch noch die Bewegtbildschärfe da DLSS und FSR mehr FPS als Native liefern, was bei diesem Vergleich unter den Tisch fällt, aber bei sample und hold Monitoren wichtig ist.
TheManneken schrieb:
und wir bräuchten auch keine weitere Diskussion.
Die Qualitätsfrage ist auch eindeutig, glaube nicht, dass es darüber überhaupt eine Diskussion braucht.
TheInvisible schrieb:
Was siehst du wieder was ich nicht sehe, auch dort ist DLSS vorn oder welche Erbsen willst jetzt zählen?
Das ist das typische Cherrypicking. Man nimmt sich 1 Spiel von 6 raus und unterschlägt dann zusätzlich die viel höheren Bildraten beim Upsampling.
blackiwid schrieb:
Hätte man gesagt es ist nichts dramatisches aber halt leicht besser, wäre es erfüllt worden.
Ich kann mich nicht daran erinnern, dass DLSS4.5 in 4K Q einen dramatischen Unterschied zu FSR 4 Q ergibt, welche Redaktion hätte das behauptet?

Im Qualitätsmodus ausgehend von 4K hätte ich wesentlich geringere Stimmabgaben für DLSS erwartet, alleine aufgrund der hohen Grundauflösung und Unterscheidungsschwierigkeit. Hier ist selbst FSR3 Q halbwegs brauchbar.
 
Zuletzt bearbeitet:
Grestorn schrieb:
Du liest DLSS und ersetzt das im Kopf mit AI.
DLSS Super Resolution boosts performance by using AI to output higher-resolution frames
Ergänzung ()

ElliotAlderson schrieb:
Fakt ist, dass sämtliche Quellen dir widersprechen.
Oh, wenn dem so wäre, hätte bestimmt irgendwer schon mindestens eine davon nennen können. Bisher ist das nicht geschehen - im Gegenteil.
 
  • Gefällt mir
Reaktionen: Iscaran
adfsrg schrieb:
Wir reden doch von DLSS SR, oder? Die gerenderten Pixel werden in niedriger Auflösung gerendert. Wenn die Auflösung niedriger ist, dann ist ein Pixel kleiner.
:lol:

Ein Pixel ist und bleibt ein Pixel. Auflösung= 1920Pixel x 1080Pixel es wird kein Pixel höher aufgelöst sondern mehr Pixel z.B. 3840Pixelx2160Pixel
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pisaro, Return2Burn und ElliotAlderson
Zurück
Oben