Bericht Leser-Blindtest 2026: Die Community sieht DLSS 4.5 klar vor FSR und Nativ + TAA

Pilstrinker schrieb:
Ich finde, das ist schon eine heftige Klatsche für nVidia.
Eigentlich ist es egal wie die Ergebnisse ausfallen - mit der AMD Brille schafft man es am Ende dennoch das Ergebnis von FSR 4 das nach diesen "Ergebnissen" hinter TAA liegt als den Gewinner auszumachen.

Wirklich eine heftige Klatsche für Huang und Nvidia, die tun absolut nichts mehr für Gamer...
Pilstrinker schrieb:
Denn wäre es so eindeutig überlegen, hätte der Anteil wesentlich höher sein müssen.
Wir reden hier immer noch von Q Upscaling in 4K, wohl den wenigsten bewusst.

Der Test ist ergo der Bestcase für FSR, man kommt AMD damit eh schon sehr stark entgegen, die häufigste genutzte Auflösung ist 1440p.

Nutzt du mal Balanced/Performance in QHD was mit DLSS4.5 hervorragend funktioniert und mit FSR 4 im Direktvergleich viel schlechter aussieht, würde FSR deutlich schlechter wegkommen als das hier der Fall wäre.

Dein Gefühl AMD würde über Gebühr schlecht gemacht, ist unbegründet, wenn überhaupt ist das Gegenteil der Fall. Die Überlegenheit von DLSS wird untertrieben, denn in niedrigeren Auflösungen kosten die neuen Modelle kaum mehr Leistung bzw. sind gar teilweise schneller und FSR bricht auseinander.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usmave und Kraeuterbutter
Kuestennebel79 schrieb:
aber es ist Fakt, durch die Rekonstruktion auf Basis von Temporalen Informationen mehr Details generiert
Mehr Details als mit TAA rauskommen würden, aber eben nicht Informationen, die vorher nicht da waren und von einer KI erfunden wurden, Es sind alles Informationen, die vorhanden sind, aber beim klassischen Rastern durchs Gitter gefallen sind, darum gehts mir
 
  • Gefällt mir
Reaktionen: usmave
andronom schrieb:
Genau das ist der Part, den die KI bei DLSS und Co. übernimmt: Nach Auswertung der Bewegungsvektoren, Tiefeninformationen etc. entscheidet das KI Modell, welche Daten aus den vorherigen Bildern an welcher Stelle im aktuellen Bild verrechnet werden kann.
Ja. So werden die Bilder von der KI generiert - zumindest wenn man "verrechnet" ziemlich frei interpretiert.
andronom schrieb:
Es wird kein Bild per KI "generiert", sondern aufgrund der von der KI ausgewählten, verwertbaren Pixelinformationen temporal verrechnet.
Jetzt widersprichst du dir aber. Oben hast du beschrieben wie die KI das macht und unten schreibst du, dass die KI doch keine Bilder generiert.

Wenn du meinst, dass DLSS Informationen auswählt, dann wäre es ein Classifier und kein Generator. Eine KI, die auswählt, kann dir z.B. auf einem Bild alle Katzen oder alle Hunde auswählen, aber es ist doch nicht so, dass alle Pixeldaten vorliegen und nur die richtigen ausgewählt werden müssen. Das ergibt keinen Sinn.
 
adfsrg schrieb:
Allerdings benötigt DLSS für seine Berechnungen weit mehr als nur das fertige 2D-Bild. Es greift auf spezifische Daten aus der Grafik-Engine zu, die während des Rendering-Prozesses entstehen:
Klar, deswegen kannst du dlss auch nicht als zb simplen fotoupscaler benutzen. Dlss bekommt und benötigt hier viel mehr zusätzlichen Input und ist deswegen auch viel schneller als ein normaler KI Foto upscaler. Das Modell ist einzig für diesen speziellen Fall trainiert und deshalb enorm effizient, das scheinen hier viele nicht zu verstehen.
Genauso wie anthropic ihr Modell hauptsächlich für Code, Finance und Forschung optimiert.
 
  • Gefällt mir
Reaktionen: Iscaran und adfsrg
Naja, ich bin anscheinend Team Nativ und hab leider DLSS nur einmal getroffen. Aber schön zu sehen wie die Technik sich entwickelt.
 
Grestorn schrieb:
So etwas kann nicht mal eben 100 Bilder pro Sekunde erzeugen, auf eine Art, wie das voll ausgewachsene Transformer-AIs, die man im Netz nutzen kann, schon nicht hinbekommen. Auch wenn ich eine Transformer AI im Netz ein Bild nur SKALIEREN lasse, warte ich viele SEKUNDEN auf das Resultat.
Ja, weil das auch nur in der Cloud läuft und nicht lokal. Lokal kannst du auch per KI ganze Videos in Echtzeit hochskalieren. Kennst du RTX Video Super Resolution?
 
Kuestennebel79 schrieb:
Im Kleinen, Im Großen. Du hast doch erzählt das ist KEINE AI.

Ich habe geschrieben, die AI generiert nicht das gesamte Bild. Das Bild als solches ist nicht AI generiert.

Ich habe wirklich NIE gesagt, dass da nichts ist, was man als AI im einfachen Sinn bezeichnen kann. Bitte leg mir keine Aussagen in den Mund, die ich nicht getätigt habe. Das ist unterirdisch.
 
adfsrg schrieb:
Ich habe auch viele Programme entwickelt, die rein gar nichts mit TAA oder DLSS zu tun haben. Oder denkst du, CapFrameX hätte was mit TAA oder DLSS zu tun? Eher nicht, soviel ich weiß. Aber ich lasse mich gerne eines besseren belehren...
Schon gut, du bist allwissend und alle anderen haben keine Ahnung ;)

@Andre83hro werd erwachsen.
 
  • Gefällt mir
Reaktionen: Grestorn
Quidproquo77 schrieb:
Eigentlich ist es egal wie die Ergebnisse ausfallen - mit der AMD Brille schafft man es am Ende dennoch das Ergebnis von FSR 4 das nach diesen "Ergebnissen" hinter TAA liegt als den Gewinner auszumachen.
Das habe ich nicht geschrieben.

Wenn aber trotz des Hypes um DLSS 4.5 dann im Blindtest nicht einmel jeder 2. eine bessere BQ erkennen kann, darf man diesen Umstand ja wohl erwähnen.

nVidia muss halt nachlegen, vielleicht wird DLSS 5 oder 6 brauchbarer.

Übrigens habe ich im Blindtest 4x DLSS vorne gesehen und 2x nativ. So von wegen AMD-Brille.
 
  • Gefällt mir
Reaktionen: zeedy, Iscaran, KeinNutzerName und 2 andere
adfsrg schrieb:
Ja, weil das auch nur in der Cloud läuft und nicht lokal. Lokal kannst du auch per KI ganze Videos in Echtzeit hochskalieren. Kennst du RTX Video Super Resolution?
Ja klar kenne ich das. Und wieso denkst Du, dass da eine Transformer AI wie im Netz am Werk ist?

Und dass eine 2060 die Cloud schlägt ist, was Rechenkapazität angeht, schon echt eine bemerkenswerte Aussage.
 
Grestorn schrieb:
Nochmal: Ich bezweifle nicht, dass AI-like-Technologien auch auf den Karten laufen. Ganz sicher sogar. Das, was auf den Tensor-Kernen läuft, ist sicher eine Art AI im Kleinen.

IM KLEINEN
Was schreibe ich die ganze Zeit, es ist ein kompaktes hocheffizientes Model das rein für diesen Zweck optimiert wurde, es kann nix anderes. Hättest nur ein wenig gelesen was ich die ganze Zeit schreiben wäre dir das schon längst klar gewesen, das Modell in der DLL ist wenige mb groß und benötigt zur ausführung 100-400mb vram je nach auflösung.

Das hat absolut nichts zu tun mit den General purpose Modellen mit mehreren GB an größe
 
  • Gefällt mir
Reaktionen: Andre83hro, adfsrg, 12nebur27 und eine weitere Person
@TheInvisible Ich störe mich daran, dass man behauptet, die AI generiert die Bilder. Und ich habe schon mehrfach geschrieben, warum mich das stört. Weil für viele Menschen "AI Bild-Generierung" identisch ist mit "nicht real" und "frei erfunden".

Dass ein Algorithmus AI Technologien verwendet macht ihn noch nicht zu einem AI Bildgenerator. DLSS und FSR bleiben bei der Realität, sie verfälschen das Originalmaterial in keinster Weise.

Es ist eben KEINE AI die irgendwelche Bilder erzeugt. Es ist eine AI, die dabei hilft, die bereits in hoher Detailstufe (durch das Jittering) verfügbaren Renderdaten möglichst auch in Bewegung artfaktarm darzustellen. Das ist eben etwas GANZ ANDERES als Bildgenerierung.
 
  • Gefällt mir
Reaktionen: usmave, KeinNutzerName und Quidproquo77
Grestorn schrieb:
Ich habe geschrieben, die AI generiert nicht das gesamte Bild. Das Bild als solches ist nicht AI generiert.
Natürlich nicht, das Bild als solchen ist ein 3D Rendering. Davon ist hier auch niemand ausgegangen.

Aber die Rekonstruktion bei Upsampling is AI generiert. Und ob das NN nun direkt die Pixel ausgibt oder ein Algorithmus ein NN benutzt ist hierbei ja wirklich egal.

Natürlich wird kein reines AI Bild generiert. Sowas wurde aber bereits gezeigt neuronales Rendering oder so und kommt bestimmt in 2-4 Jahren. Dann kann man evtl. älterer Spiele mit AI echtzeit aufpäppeln, bin gespannt auf Nvidia, wenn sie denn noch Gaming machen.

Taxxor schrieb:
Es sind alles Informationen, die vorhanden sind, aber beim klassischen Rastern durchs Gitter gefallen sind, darum gehts mir
Davon würde ich nicht unbedingt ausgehen. Ein NN könnte schon auf Basis von Motion Vektoren und low res Pixeln lernen, die zusätzlichen Pixel zu "predicten". Aber ich kann das nicht nachweisen, wäre aber logisch, bei der hohen Qualität die ein Transformer NN sogar bei Performance erreicht.
 
  • Gefällt mir
Reaktionen: Iscaran
Pilstrinker schrieb:
Wenn aber trotz des Hypes um DLSS 4.5 dann im Blindtest nicht einmel jeder 2. eine bessere BQ erkennen kann, darf man diesen Umstand ja wohl erwähnen.
Das sehe ich auch so. Ich nehme von dem Ergebnis einfach mit, dass die Unterschiede gering sind. Wären sie grösser, müsste man deutlichere Unterschiede in der Wertung sehen. So wie bei Satistactory. Das ist aber eine Ausnahme.

Es gibt eigentlich nur 2 Möglichkeiten:
  • der Unterschied zwischen DLSS, FSR und TAA wird als sehr gross wahrgenommen. Dann gefällt aber über 50% der Leute der DLSS Stil nicht und somit haben sie was Anderes gewählt.
  • der Unterschied zwischen DLSS, FSR und TAA ist nicht so gross wie teilweise behauptet, darum haben 50% der Leute Schwierigkeiten, das nachweislich "beste" Bild überhaupt zu erkennen.

Pilstrinker schrieb:
nVidia muss halt nachlegen, vielleicht wird DLSS 5 oder 6 brauchbarer.
Da würde ich widersprechen. DLSS is absolut brauchbar - es ist sogar sehr gut. Und auch FSR4 ist absolut brauchbar.


übrigens mein Resultat ist durchzogen:
1x sehe keinen Unterschied
1x nativ
2x FSR
2x DLSS

ich zähle mich zu Gruppe 2 von oben genannten Möglichkeiten.
 
  • Gefällt mir
Reaktionen: jo0, Iscaran und KeinNutzerName
ElliotAlderson schrieb:
alle anderen haben keine Ahnung
Das hab ich doch nie gesagt. Ich denke, dass z.B. die ganzen Leute bei Nvidia viel mehr Ahnung haben als ich. Vielleicht sollten wir denen glauben, wenn sie schreiben, dass DLSS mit KI funktioniert, oder?

Warum glaubst du, dass jemand, der ein kleines Programm geschrieben hat, dass ein paar Daten sammelt und auswertet, allein deswegen qualifiziert ist um über TAA und DLSS zu reden?
 
  • Gefällt mir
Reaktionen: Andre83hro
Pilstrinker schrieb:
nVidia muss halt nachlegen, vielleicht wird DLSS 5 oder 6 brauchbarer
Klar Nvidia muss nachlegen bei 90% Marketshare und führenden Softwarestack, ziemlich viele Trolle heute unterwegs lol
 
Kuestennebel79 schrieb:
Natürlich nicht, das Bild als solchen ist ein 3D Rendering. Davon ist hier auch niemand ausgegangen.
Das stimmt doch nicht. Das komplette Bild ist KI generiert. Was gerendert wird ist ein Bild in geringerer Auflösung. Dieses Bild und weitere Daten dienen als Input für das Modell, das dann das komplette Bild liefert. Nicht ein einziges Pixel des Outputs ist gerendert.
 
  • Gefällt mir
Reaktionen: Iscaran
Xes schrieb:
Der harte Cut kam, da den alten pre 9000 Karten schlicht die physikalischen Hardwareeinheiten fehlen, um FP8 für FSR4 in voller Qualität performant zu betreiben.
Das läuft auch ausreichend performant, sogar DLSS 4.5 mit FP16.

Der Performance Verlust ist selbst auf Turing je nach Spiel in FHD oder QHD nur minimal und man bekommt stellenweise mehr BQ und mehr FPS.
Xes schrieb:
Irgendwann muss man diesen Cut machen, wenn die Software weiterentwickelt und verbessert werden soll.
Es gibt keine technische Begründung, warum man RDNA 3 ausschließt. RDNA 3 kann solche Dinge über WMMA eher sogar besser und schneller berechnen als Turing und Ampere.
 
Grestorn schrieb:
Es ist eben KEINE AI die irgendwelche Bilder erzeugt. Es ist eine AI, die dabei hilft, die bereits in hoher Detailstufe (durch das Jittering) verfügbaren Renderdaten möglichst auch in Bewegung artfaktarm darzustellen. Das ist eben etwas GANZ ANDERES als Bildgenerierung.
Mir kommt's hier echt langsam vor wie in einem for Loop ohne Exit... Ich will gar nicht erahnen was passiert wenn wir hier FG/MFG ins Spiel bringen
 
  • Gefällt mir
Reaktionen: Brrr, Iscaran, t3chn0 und eine weitere Person
Kuestennebel79 schrieb:
Natürlich nicht, das Bild als solchen ist ein 3D Rendering. Davon ist hier auch niemand ausgegangen.

Oh doch. @adfsrg behauptet das ohne Unterlass.

Kuestennebel79 schrieb:
Aber die Rekonstruktion bei Upsampling is AI generiert. Und ob das NN nun direkt die Pixel ausgibt oder ein Algorithmus ein NN benutzt ist hierbei ja wirklich egal.
Sie ist AI-gestützt. Die Rekonstruktion basiert weitestgehend auf dem jittered temporal Rendering. Die AI muss "nur" die Probleme, die diese Technik mit sich bringt, beheben.

Das magst Du als Kleinigkeit sehen. Ich halte den Unterschied aber für elementar. Beim einen sagt man nämlich "Die AI bestimmt, was man sieht" (und damit kann man ihm nicht mehr trauen, denn AIs machen bekanntlich Fehler). Im anderen Fall sagt man "Die AI hilft dabei, Artefakte, die durch das temporale Upscaling auftreten, zu beheben". Auch da passieren Fehler, wie man immer wieder sieht, aber die sind eben massiv weniger problematisch, als wie wenn das gesamte Bild von der AI generiert wäre.
Ergänzung ()

TheInvisible schrieb:
Mir kommt's hier echt langsam vor wie in einem for Loop ohne Exit... Ich will gar nicht erahnen was passiert wenn wir hier FG/MFG ins Spiel bringen
Ja, mir auch. Du bist schon selten stur.

Und ich weiß, dass Du das Gleiche von mir denkst. Das ist auch ok so. ... :)

Auch bei FG generiert die AI keine vollständigen Bilder. Sondern hilft "nur" dabei, Objekte als solche zu erkennen und en Block zu verschieben und für animierte Elemente gut passende Zwischendarstellungen zu erzeugen. Eigentlich recht offensichtlich.
 
Zuletzt bearbeitet:
Zurück
Oben