Bericht Leser-Blindtest 2026: Die Community sieht DLSS 4.5 klar vor FSR und Nativ + TAA

ElliotAlderson schrieb:
DLSS selbst nutzt keine KI zur Rekonstruktion. Lediglich das Modell/der Algorithmus wird mittels KI erstellt/generiert. Die Karte bzw. der Treiber wendet das einfach nur noch an.
Kann es sein, dass du nur das Training aber nicht Inferenz als KI ansiehst? Du schreibst ja selbst, dass das Modell angewandt wird. Gerade das Anwenden eines KI-Modells zeigt doch ganz eindeutig, dass KI verwendet wird.
 
Grestorn schrieb:
Oh Mann.

Dass man intern einen Algorithmus, auch einen AI-basierten, zu allem Möglichen verwenden kann, zum Berechnen von internen Daten und Tabellen, z.B., das kommt dir nicht in den Sinn?

Nur mal als kleinen Kontext:

Ich bin Software-Entwickler, seit 40 Jahren im Business. Ein ganz klein wenig verstehe ich schon von der Materie. Auch wenn ich jetzt nicht DLSS im Detail kenne, so kann ich schon einige Dinge logisch aufgrund der Materialien, die wir kennen (Wikipedia, andere Artikel), ableiten.

Euer Vertrauen in die Magie von AI bzw. DLSS/FSR ist wirklich erstaunlich.
Ergänzung ()


Wenn ich darauf klicke, krieg ich das Inhaltsverzeichnis der ganzen Doku. Sollte da ein spezielles Kapitel verlinkt sein? Oder hast Du das Posting editiert?


Soweit ich es verstehe:

Das DLSS-Model wurde trainiert, indem man low-res und high-res Bilder auf Basis eines Bildes zur Verfügung stellt. Das daraus entstehende Model läuft auf der GPU. Dann gibt man die gerenderten low-res Bilder und Motion Vektoren als Daten in den das Model und hinten kommt dann das Ergebnis diverser Matrizenrechnungen raus, welche super schnell auf den Tensor Kernen laufen. Dieses Ergebnis ist halt ein neues Bild in höherer Auflösung. So wie es gelernt wurde.

DLSS rendert kein neues Bild im klassischen Sinne.
 
  • Gefällt mir
Reaktionen: Iscaran, Kuestennebel79 und Snapuman
adfsrg schrieb:
Kann es sein, dass du nur das Training aber nicht Inferenz als KI ansiehst? Du schreibst ja selbst, dass das Modell angewandt wird. Gerade das Anwenden eines KI-Modells zeigt doch ganz eindeutig, dass KI verwendet wird.
Ja, aber nicht, dass mit der KI tatsächlich Bilder generiert werden.

"KI verwenden" kann auf x-verschiedenen Ebenen verstanden werden.
 
  • Gefällt mir
Reaktionen: Snapuman
adfsrg schrieb:
Genau darum geht es doch: Die Bildfehler durch temporale Verfahren sollte man wegschmeißen und stattdessen lieber echte Transparenz implementieren
Nein darum geht es nicht. Es geht darum, dass Spiele ganz massive Einschnitte in den Dingen die sauber auf dem Bildschirm dargestellt werden können daraus Resultieren. Wir müssten in Sachen Objektdichte alles ganz massiv zurückfahren. Wären z.T. deutlich mehr limitiert darin wie wir Sachen ausleuchten. Ich glaube nicht, dass viele Leute darüber glücklich wären.
Übrigens was meinst du mit "Echter Transparenz"? Im Sinne von, kein Blackbox Algorithmus der sich überlegt wie das Aussehen soll? Oder was ist damit gemeint?
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Grestorn
Bregor schrieb:
Soweit ich es verstehe:

Das DLSS-Model wurde trainiert, indem man low-res und high-res Bilder auf Basis eines Bildes zur Verfügung stellt.
Nein, das ist total veraltet und hat so m.E. noch nie in dieser Form gestimmt.

DLSS1 wurde in der Tat auf die Spiele trainiert, die es eingesetzt haben. Aber auch da vermutlich ganz anders, als man hier so denkt.

Seit DLSS 2 wird nicht mehr konkret auf die Spiele trainiert. Das geht bei der Menge an Spielen auch gar nicht mehr. Auch die Tatsache, dass man DLSS in Spiele integrieren kann (über Mods), die gar nicht dafür vorgesehen waren, sollte da recht eindeutig sein.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Snapuman
Fujiyama schrieb:
Ich sehe fast kein unterschied, meistens und nur dann wenn man genau hinschaut und es still ist.
Ich finde e erstaunlich, dass die Leser sich so klar für DLSS entschieden haben, obwohl das ein Vergleich mit dem Quality Modus war. Im Performance Modus der ja zumindest bei DLSS klar besser ist als Native wäre der Unterschied ergo noch größer ausgefallen.
Fujiyama schrieb:
Wenn man spielt und in Bewegung ist fällt es nicht auf
Dann kann man mit Performance oder gar Ultra Performance die Mehrleistung einfach mitnehmen. Der Unterschied bei UP oder P ist zwischen den Techniken meines Erachtens schon recht groß.
 
  • Gefällt mir
Reaktionen: MalWiederIch
ich frage mich, ob hier wirklich nach bildqualität abgestimmt wurde, oder einfach nur nach "wer erkennt DLSS"

weil das war in den meisten fällen wirklich einfach.
zB bei Horizon Forbidden West sticht das flimmern des holzbodens sehr stark heraus.

außerdem wäre mehrfachantwort, oder bewertungssystem mMn aussagekräftiger
um bei Horizon Forbidden West zu bleiben. auch FSR macht in dieser szene einen sehr guten job und das bild ist ruhiger
DLSS 10 punkte
FSR 8
nativ 5
oder so

ist ein ruhiges bild wichtiger als andere bildeigenschaften? zB verwaschene texturen
 
Grestorn schrieb:
Nein, das ist total veraltet und hat so m.E. noch nie in dieser Form gestimmt.

DLSS1 wurde in der Tat auf die Spiele trainiert, die es eingesetzt haben. Aber auch da vermutlich ganz anders, als man hier so denkt.

Seit DLSS 2 wird nicht mehr konkret auf die Spiele trainiert. Das geht bei der Menge an Spielen auch gar nicht mehr. Auch die Tatsache, dass man DLSS in Spiele integrieren kann (über Mods), die gar nicht dafür vorgesehen waren, sollte da recht eindeutig sein.

Ich spreche ja auch nicht von "direkt einem Spiel", sondern verallgemeinert wurde dem Model beigebracht, was es zu tun hat. Wie sonst soll es funktionieren? Es bekommt mehrere Bilder und Motion Daten und so und erzeugt daraus ein neues Bild in höherer Auflösung. Es rendert kein neues Bild in höherer Auflösung, sonst würde ja die Renderpipeline statt der Tensor Cores benutzt werden.
 
  • Gefällt mir
Reaktionen: Iscaran und adfsrg
TheManneken schrieb:
Meine persönlicher Treffer fielen wiefolgt aus:
2x kein Unterschied
2x nativ
2x FSR

Welches Fazit ich daraus ziehen soll, weiß ich noch nicht. :daumen:
Bei geringerem Anspruch kann man jedenfalls gerade aktuell viel Geld sparen …
 
Grestorn schrieb:
Ich bin Software-Entwickler
Ich ebenso.
Grestorn schrieb:
Ein ganz klein wenig verstehe ich schon von der Materie.
Ja, ganz genauso wirkt es auch. Du benutzt zwar Worte, die in diesem Kontext oft sinnvoll sind, nur wie du sie zu Sätzen zusammenstellst passt halt nicht, weil sie inhaltlich nicht korrekt sind.
Grestorn schrieb:
Dass man intern einen Algorithmus, auch einen AI-basierten, zu allem Möglichen verwenden kann, zum Berechnen von internen Daten und Tabellen, z.B., das kommt dir nicht in den Sinn?
Doch, RR arbeitet so.
Ergänzung ()

Grestorn schrieb:
"KI verwenden" kann auf x-verschiedenen Ebenen verstanden werden.
Nun ja, das Verwenden eines KI-Modells, genauer eines Transformers, um ein Bild zu erzeugen (darunter fällt auch rekonstruieren), kann man eigentlich nur als generative KI verstehen. Es ist eine KI, die ein Bild erzeugt.
 
  • Gefällt mir
Reaktionen: Iscaran und Andre83hro
jo0 schrieb:
FXAA und scharf? FXAA hat auch immer zu Unschärfe geführt und ich habe es gehasst.
Ist halt Ansichtssache, ich empfinde das "pixelige", "rohe" Bild eben als schärfer, als das "verschwommene", "geglättete" Bild durch TAA, DLSS etc.
 
ElliotAlderson schrieb:
Ich habe anscheinend, bis auf einmal, immer für DLSS gestimmt.
LucLeto schrieb:
Sehe ich genau so.
Fujiyama schrieb:
Ich sehe fast kein unterschied
rollmoped schrieb:
Ich habe es gerade mit meinen Ergebnissen verglichen und FSR4 hat mir am häufigsten gefallen (3x).
RaptorTP schrieb:
Nur bei Satisfactory hab ich DLSS 4.5 gewählt.
Der Rest war alles nativ oder FSR.
BeowulfAgate schrieb:
Als zufriedener Nutzer von FSR4 habe ich kein einziges Mal für FSR gestimmt sondern für DLSS 4.5
eRacoon schrieb:
3x DLSS, 2x FSR, 0x Nativ
Termy schrieb:
Bei mir kam tatsächlich meist FSR raus:D
S.Evans schrieb:
3x nativ und 3x FSR, bin wohl nicht so vom Testsieger überzeugt 😅
Bei mir kam nur FSR raus. Kein einziges mal DLSS oder Nativ. Seltsam.
 
  • Gefällt mir
Reaktionen: RaptorTP
Bregor schrieb:
Ich spreche ja auch nicht von "direkt einem Spiel", sondern verallgemeinert wurde dem Model beigebracht, was es zu tun hat. Wie sonst soll es funktionieren? Es bekommt mehrere Bilder und Motion Daten und so und erzeugt daraus ein neues Bild in höherer Auflösung. Es rendert kein neues Bild in höherer Auflösung, sonst würde ja die Renderpipeline statt der Tensor Cores benutzt werden.
Wie da trainiert wird, weiß keiner. Ich denke, es wird schon trainiert, damit Okklusion erkannt wird und wie durch Bewegung neu ins Bild kommende Bereiche am besten so rekonstruiert werden können, dass trotz mangelnder Details in den bislang unsichtbaren Bereichen das möglichst wenig auffällt.

Und auch wie mit Motion-Vektoren am effizientesten umzugehen ist, wie sich bewegende Objekte ohne Motion-Vektoren erkannt werden (Partikel z.B.) und richtig behandelt werden, usw.

All so was.

Aber eben keine konkreten Bilddaten. Das kann ich mir so einfach nicht vorstellen. Das Netz würde schlicht explodieren.

Das ist es, was ich meine. Einige hier haben eine viel zu simple Vorstellung von dem Verfahren.
So nach dem Motto "Lernt der AI mal wie Spiele aussehen, dann wird sie schon das Richtige generieren!"

(nein, das ist nicht auf Dich bezogen!)
 
Medcha schrieb:
Toller Pokal! Rechtfertigt nur den Preisaufschlag bei Nvidia nicht. Am Ende bleibt's beim Alten für mich: AMD
Aktuell von einer 9070 XT zu einer 5070 Ti? Auf keinen Fall.

Ist aber nicht der reguläre Preisabstand - bis auf die letzten paar Tage lagen ja keine 100€ zwischen den beiden, während die 5070 Ti 8% im CB Leistungsrating vorne liegt:
IMG_0667.jpeg


Wir haben aktuell Februar - im Januar, gerade einmal letzten Monat, lag die 5070 Ti bei 799€ bei Idealo …
Nun gibt es 2 Möglichkeiten:

1. Sobald der günstig eingekaufte VRAM ausgeht steigen auch die 9070 XT stark im Preis.
2. Beide sinken wieder auf das alte Preisniveau.
Nighteye schrieb:
Bei mir kam nur FSR raus. Kein einziges mal DLSS oder Nativ. Seltsam.
Bestimmt :p Würde nur zu gut zu deinen Wunschvorstellungen passen wenn man deine sonstigen geistigen Ergüsse gelesen hat …

Das allgemeine Ergebnis ist jedenfalls recht eindeutig - selbst nativ liegt mit nahezu doppelt so vielen Stimmen deutlich (!) dort vor FSR:
IMG_0884.jpeg

„Seltsam“ :p

Apropos - warum sind hier Stimmabgaben zu nicht-politischen Themen eigentlich überhaupt anonym?
Wäre doch interessant, wie das Ergebnis mancher Nutzer hier wirklich ausfällt :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: pabu.roar
Grestorn schrieb:
Ja, aber nicht, dass mit der KI tatsächlich Bilder generiert werden.
Verstehe nicht warum du da so rumreitest auf die Begriflichkeiten, ist doch im Prinzip völlig schnurz. Es werden Bildinformationen generiert, ob du das Bilder oder sonst irgendwie nennst im Endeffekt völlig egal
 
Xes schrieb:
Ironie? Die größte Kritik an FXAA war doch, dass das Bild komplett verschwommen weichgezeichnet wird statt nur die Kanten zu glätten. Wenn es um feine Details und Texturschärfe geht sind die modernen Verfahren meilen
FXAA kümmert sich halt um ein paar Treppeneffekte und glättet diese, braucht dafür nicht viel Rechenleistung. Und so viel Details gehen da nicht verloren. Falls möglich hab ich aber auch meist komplett Nativ verwendet und alle Post Processing Sachen ausgemacht.
 
TheInvisible schrieb:
Verstehe nicht warum du da so rumreitest auf die Begriflichkeiten, ist doch im Prinzip völlig schnurz. Es werden Bildinformationen generiert, ob du das Bilder oder sonst irgendwie nennst im Endeffekt völlig egal
Naja, weil halt so viele im Kopf haben "Bei DLSS generiert eine AI Bilder" und das dann gleichsetzen mit "DLSS erfindet Details und nur deswegen sieht es scheinbar schärfer aus".
 
  • Gefällt mir
Reaktionen: usmave, Quidproquo77 und Snapuman
Zurück
Oben