Bericht Leser-Blindtest 2026: Die Community sieht DLSS 4.5 klar vor FSR und Nativ + TAA

Bei der Pixelgröße muss ich den Anderen hier recht geben. Pixel unterscheiden sich nicht in ihrer Größe, sondern nur in ihrer Anzahl. Eventuell bringst du hier etwas durcheinander, eventuell Pixeldichte?

Für mich ist die Quintessenz, das hier am Ende ein Hybrid erzeugt wird, aus einem Bild welches zum Teil von der Engine gerendert wird und dann von DLSS weiterverarbeitet wird, hierbei werden dann durchaus auch KI-generierte Pixel mit in das Bild eingefügt. Das Endprodukt besteht dann aus einer Kombination von Nativ gerenderten Pixeln und KI erzeugten.
Wenn die KI das komplette Bild erzeugen würde, wäre das doch Ineffizient, auffüllen ist ist doch sehr viel performanter.
 
  • Gefällt mir
Reaktionen: CadillacFan77
Ich glaube 4fach größere Pixel will niemand auf seinem Monitor sehen, die 4fache Menge hingegen schon sehr, idealerweise mit guter Performance. 😉
 
  • Gefällt mir
Reaktionen: Return2Burn, DaHell63 und TausendWatt
Return2Burn schrieb:
Eventuell bringst du hier etwas durcheinander, eventuell Pixeldichte?
Wenn alle Pixel gleich groß wären, dann gäbe es keine Pixeldichte. Die Pixeldichte ist doch gerade das Verhältnis von Pixel zu Fläche und die Fläche ist doch nichts anderes als die Größe.
Ergänzung ()

Vigilant schrieb:
Ich glaube 4fach größere Pixel will niemand auf seinem Monitor sehen, die 4fache Menge hingegen schon sehr
Genau deswegen gibt es doch DLSS und co. Das Bild wird in niedriger Auflösung berechnet, also sind die Pixel größer. Weil das niemand sehen will, werden aus den großen Pixeln per KI kleinere gemacht.
Ergänzung ()

Return2Burn schrieb:
Das Endprodukt besteht dann aus einer Kombination von Nativ gerenderten Pixeln und KI erzeugten.
Das ginge doch nur, wenn die Renderauflösung gleich der echten Auflösung wäre, das ist bei DLSS SR aber doch nicht der Fall.
 
  • Gefällt mir
Reaktionen: Iscaran
adfsrg schrieb:
also sind die Pixel größer.
Die "Anzeige" des Pixels ist je nach Monitor-(Auflösung) vielleicht größer, der Pixel an sich aber identisch. Vielleicht liegt hier der Irrtum?
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Die physische größe eines Pixels des monitors hat nichts damit zu tun wie "groß" er gerendert wird. Es ist dem Spiel komplett egal ob deine Subpixel 1 meter groß sind oder 0,1mm.
Wie ein Bild welches eine niedrigere Auflösung als der Monitor hat am Ende auf besagtem Monitor dargestellt wird ist dir überlassen. Du kannst das Bild kleiner werden lassen, du kannst das interpolieren lassen oder was auch immer. Du kannst natürlich auch die Informationen temporal anreichern und basierend auf Informationen aus vergangenen Bildern schätzen, wie die fehlenden Pixel aussehen sollten.
 
zeedy schrieb:
Wenn DLSS in dem Nvidia Technologie Vorzeigetitel mit 2%-Pünktchen "vorne" ist, und DLSS Nutzer im Blindtest trotz bestmöglicher Qualität oft Nativ als bestes Bild wählen, dann sind das nicht gerade überzeugende DLSS Argumente. Ist diese Schlussfolgerung für dich wirklich nicht offensichtlich?
Was hat das alles mit dem Upscaling zu tun? Wennst in CP sehen willst was gut aussieht schaltest du PT + DLSS-RR ein. Was sagst du eigentlich zu Satisfactory, 60% DLSS um auch mal cherries zu picken...

Nur weils dir nicht passt was schon ewig durch Tester gesagt wird und jetzt nochmal klar bestätigt wird, wirds auch nicht wahrer, einfach den Resultaten in die Augen sehen anstatt immer Ausreden zu erfinden
 
  • Gefällt mir
Reaktionen: DaHell63 und 12nebur27
@zeedy und um zu TheInvisible noch etwas hinzuzufügen, DLSS wäre schon überzeugend, wenn es Gleichstand mit Native erreichen würde. Einfach weil die Performance mit DLSS VIEL besser ist. Es müssen nicht 80% das Bild unglaublich viel besser als Native finden, damit es extrem beeindruckend ist. Nicht, wenn DLSS einem 30% oder mehr Performance bietet.
Hallo? 30% mehr Performance und das Bild sieht nahezu gleich aus? Was willst du mehr?
 
  • Gefällt mir
Reaktionen: DaHell63
Vigilant schrieb:
Vielleicht liegt hier der Irrtum?
Ja, genau da liegt dein Irrtum. Die Fläche des Monitor ist ja konstant. Die Größe der physikalischen Pixel kannst du also einfach berechnen indem du die Fläche durch die Anzahl der Pixel teilst. Wenn die Renderauflösung mit der Ausgabeauflösung übereinstimmt, dann sind die Pixel also genau gleich groß. Wenn aber die Renderauflösung abweicht, dann weicht auch die Größe ab.
 
blackiwid schrieb:
Es ist halt schon witzig das du die aller-billigste Nvidia Custom genommen hast aber meinst ich dürfe das nicht machen.

"Günstig" ist nicht billig. Und Inno3D ist es bestimmt auch nicht...die Karte ist ausgezeichnet. Zum Kaufzeitpunk war übrigens die Asus Prime 5070ti günstiger (auch eine super Karte, aber wollte mal was anderes testen).

Der Unterschied zu AMD ist folgender: Bei den 9070XT sind die günstigsten Karten derart mies bezüglich Spulen und Lüftern, dass man zwingend auf die besseren und teureren Customs gehen muss (und ja, ich habe mich ausführlichst informiert vor dem Kauf). Und OC können die dann auch nicht von der Architektur her.

Bei den Nvidia gibt es vieeel weniger Spulenfiepen, die haben aber das Problem, dass die Lüfter nach dem Zero-Fan-Modus direkt auf 30% gehen - und das ist manchmal lauter als erforderlich (kann man leicht mit Biosflash eindämmen). Und OC kann man die bei Bedarf auch. Nur dann ist unter Umständen ein teureres Custom sinnvoll. Und, sie haben DLSS, was nun mal für viele besser ist als FSR. Und FG wird immer besser!

Das Fiepen hatte mein Kumpel mit seiner 9070XT übrigens auch. Wir waren offen für AMD GPUs (unsere CPUs sind AMD). Es lag also auch nicht am Gehäuse. Aber es kann am Ende auch nicht sein, dass ich 650€ hinblättere und dann mit so einem Spulenfiepen leben muss. Bei so einem Preis will ich keine Kompromisse. Und ja, viele hören das nicht, weil das restliche System kacke eingestellt ist mit den Lüftern oder weil die eben immer mit laut aufgedrehtem Headset zocken.

Also sei du mal lieber offen für andere Meinungen. Mir persönlich ist es am Ende sowas von egal ob AMD oder Nvidia - letztere haben halt das bessere Produkt abgeliefert und dafür zahle ich persönlich dann auch mal 20% mehr (und das spiegelt sich immer im Wiederverkaufspreis nieder).
 
Zuletzt bearbeitet:
12nebur27 schrieb:
@zeedy und um zu TheInvisible noch etwas hinzuzufügen, DLSS wäre schon überzeugend, wenn es Gleichstand mit Native erreichen würde. Einfach weil die Performance mit DLSS VIEL besser ist. Es müssen nicht 80% das Bild unglaublich viel besser als Native finden, damit es extrem beeindruckend ist. Nicht, wenn DLSS einem 30% oder mehr Performance bietet.
Hallo? 30% mehr Performance und das Bild sieht nahezu gleich aus? Was willst du mehr?
Vergessen ja viele, es wird hier 100% gegen 67% Pixel verglichen und DLSS liegt deutlich vorn, selbst bei DLSS-P würde DLSS noch vorne liegen und trotzdem wird hier einen auf Miesepeter gemacht
 
  • Gefällt mir
Reaktionen: 12nebur27 und pabu.roar
adfsrg schrieb:
In deinem Beispiel ist ein Eingabepixel nur 25% so groß wie ein Ausgabepixel.
Nein es sind weniger Eingabepixel und mehr ausgegebene
 
  • Gefällt mir
Reaktionen: ev4x, ElliotAlderson und Grestorn
adfsrg schrieb:
Ergänzung ()


Oh, wenn dem so wäre, hätte bestimmt irgendwer schon mindestens eine davon nennen können. Bisher ist das nicht geschehen - im Gegenteil.
'by using AI' nicht 'DLSS is an AI'

dass DLSS Ai-Technologien nutzt hat niemand in Zweifel gestellt. Aber Du behauptest ständig, DLSS sei eine generative AI. Und das steht nirgendwo, und es kann auch gar nicht so sein.
 
pabu.roar schrieb:
Der Unterschied zu AMD ist folgender: Bei den 9070XT sind die günstigsten Karten derart mies bezüglich Spulen und Lüftern, dass man zwingend auf die besseren und teureren Customs gehen muss (und ja, ich habe mich ausführlichst informiert vor dem Kauf).
Zu dem Blödsinn hätte ich gern mal ne Quelle.
 
  • Gefällt mir
Reaktionen: thom_cat, eXe777, Return2Burn und eine weitere Person
TausendWatt schrieb:
es sind weniger Eingabepixel und mehr ausgegebene
Was bei gleichbleibender Monitorgröße größere Pixel bedeutet.
Ergänzung ()

Grestorn schrieb:
Aber Du behauptest ständig, DLSS sei eine generative AI. Und das steht nirgendwo, und es kann auch gar nicht so sein.
Ok, damit hier Ruhe ist, können wir uns gerne darauf einigen, dass DLSS die Technologie ist, die KI benutzt und exakt das zu machen, was ich gesagt habe. Da der Begriff KI eh nur schwammig definiert ist, macht das keinerlei Unterschied.
 
adfsrg schrieb:
Ok, damit hier Ruhe ist, können wir uns gerne darauf einigen, dass DLSS die Technologie ist, die KI benutzt und exakt das zu machen, was ich gesagt habe. Da der Begriff KI eh nur schwammig definiert ist, macht das keinerlei Unterschied.
doch, es ist der entscheidende Unterschied, weil Du die ganze Zeit darauf bestehst, dass bei DLSS das gesamte Buld durch eine AI generiert wird.

Und das ist einfach nicht der Fall.

DLSS generiert das Bild algorithmisch, deterministisch, auf Basis der temporal gejitterten Renderdaten, unter Nutzung bestimmter AI Technologien.

Genau dieser Unterschied ist, woran wir uns seit 2 Tagen aufhängen.

DLSS ist keine AI die irgendwelche Bilder generiert. PUNKT.
 
@pabu.roar Also meine 9070XT Pulse war ne MRSP Karte und zum Kaufzeitpunkt gab es nix günstigeres als die Pulse. Lüfter laut allen Tests superleise/unhörbar und von Spulenfiepen ist bei der auch nicht vorhanden.
Ich habe von anderen Modellen gelesen, bei denen die Lüfter wohl lauter sein sollen und auch vereinzelt Spulenfiepen auftrat. Aber so pauschal ist deine Aussage falsch.
 
  • Gefällt mir
Reaktionen: Andre83hro
Grestorn schrieb:
DLSS ist keine AI die irgendwelche Bilder generiert. PUNKT.

Jap, das generieren ist eben der Knackpunkt.
Dass die Bilder durch ein AI Model laufen und ausgewertet werden ist klar. Aber zusammengesetzt wird das Bild nur aus den Daten die der AI Algorithmus aus den bestehenden Daten gewonnen hat. Es wird erkannt, gefiltert und sortiert, aber nichts erzeugt, was nicht bereits in den Input daten vorhanden ist.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usmave, Taxxor, BeowulfAgate und 2 andere
Die tatsächliche physische Größe der Pixel tut doch gar nix zur Sache. Auf dem Bildschirm soll eine Szene dargestellt werden. Wie fein das einzelne physische Pixel dann ist bestimmt dessen Auflösung. Egal wie groß das physische Pixel nun ist, da upscaling betrieben wird, muss das logische Pixel, in welches Raster die zu rendernde Szene gepresst wird wohl oder übel relativ dazu größer sein. Man will ja Rechenleistung sparen. Dieses gröbere Raster jittert man quasi über die Szene, um über mehrere frames dann mit Hilfe der KI das feiner aufgelöste Bild zu rekonstruieren, welches an Bildschirm geht.
 
Grestorn schrieb:
Bei der Interpretation der Ergebnisse ist es aber auch wichtig zu berücksichtigen, dass Native einfach auch langsamer ist.
Darum ging es aber bei dem Blindtest nicht. Es ging nur um das am besten wahrgenommene Bild.

Grestorn schrieb:
Du scheinst irgendwie so ein "hähä" Richtung NVidia schicken zu wollen, "ihr seid ja doch nicht wirklich besser als Native mit Eurem DLSS".
Bitte nicht zu viel hineininterpretieren. Ich mache nur auf die offensichtlichen Schlussfolgerungen dieses Blindtests aufmerksam, sonst nichts.
 
  • Gefällt mir
Reaktionen: eXe777, Enyo79 und Andre83hro
Zurück
Oben