Test DLSS 4.5 & FSR AI vs. Nativ im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich

Taxxor schrieb:
Dann tauschst du Unschärfe gegen Flimmern, mit DLSS hast du halt keines von beiden
Meine Augen kommen mit Flimmern deutlich besser zurecht als mit Unschärfe.
Selbiges gilt für Bewegungsunschärfe sowie inkonsistente FPS mit und ohne Sync..
 
Palitore schrieb:
Ich versteh ehrlich gesagt nicht ganz, wie sowas hier zustande kommt (CoD):

Die Berge (Hintergrund + Vordergrund) sehen einfach aus, als hätten sie in DLSS eine andere, höher aufgelöste Textur drauf.
Sind das jetzt Bildinfos, die vorhanden wären, aber in nativer Auflösung einfach verloren gehen?
Also würde eine höhere native Auflösung die Details wie DLSS zeigen?

Anhang anzeigen 1701699
Das liegt daran, dass DLSS letztlich eine höhere Abtastrate der Texturen hat als native.
 
Wolfgang schrieb:
Aber nutzen kleine Indie-Produktionen nicht auch primär TAA?
Wäre mir neu den dann würde ich sehr viele Titel nicht anfassen.

Wie schon geschrieben der Test holt mich nicht ab, nicht mehr und nicht weniger.
 
Iscaran schrieb:
Da ich override game settings an habe dürfte ich ja dann kein AA in game haben...

Du hast dann TAA. Das kannst Du nicht durch den Treiber überschreiben, wenn es im Spiel an ist. Wenn, dann musst Du das im Spiel abschalten.
 
Grestorn schrieb:
AI Upscaler werden nicht mit irgendwelchen Bilddaten trainiert. Die Zeiten sind schon sehr lange vorbei. Das hat nur DLSS 1 so gemacht.
Taxxor schrieb:
Noch jemand, der seit 2020 keine Technikartikel zu DLSS mehr verfolgt hat und glaubt das Prinzip von DLSS 1.0 findet heute noch irgendwo Anwendung?
Wort-Wörtlich in der nvidia Beschreibung zu DLSS 2.0 Training:
During the training process, the output image is compared to an offline rendered, ultra-high quality 16K reference image, and the difference is communicated back into the network so that it can continue to learn and improve its results. This process is repeated tens of thousands of times on the supercomputer until the network reliably outputs high quality, high resolution images.
https://www.nvidia.com/en-us/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/

Aber ihr wisst sicher besser als nvidia was nvidia macht...
 
  • Gefällt mir
Reaktionen: Axonteer und rollmoped
Wolfgang schrieb:
Ich habe doch geschrieben, wie es grob in der Theorie funktionert.
Es wird die Bewegung und Informationen von Pixeln aus vergangenen Frames analysiert. Da ist nichts hinzuerfunden, die Informationen sind ja da. Das hat absolut nichts mit Magie zu tun. Das, was du beschreibst, ist DLSS 1. Ab DLSS 2 funktioniert es aber völlig anders. Es sei denn, Nvidia lügt, AMD lügt, Intel lügt, Epic lügt und viele andere auch.

Was @Wolfgang nicht erwähnt ist das Jittering. Also auch wenn das Bild steht und immer exakt das selbe Frame gerendert wird, hat man duch AI Upscaling mehr Details.

Weil jedes aufeinanderfolgende Frame um einen winzigen Betrag (subpixel) versetzt gerendert wird. De fakto hat man dadurch genau den selben Effekt wie beim alten Multi-Sampling AA mit "Sparsed Grid", nur auf das gesamte Bild.

Bei einem stehenden Bild ist dadurch die Detailauflösung mit DLSS / FSR AI praktisch optimal, erst bei Bewegung wird es schwieiriger, weil auf weniger "passende" Frames zurückgegriffen werden kann.
 
ebird schrieb:
Also ich kann die Wertung nicht nachvollziehen. Auch wenn DLSS schärfer als Nativ ist, ist es nicht das Original sondern ein abgeändertes Bild und entspricht nicht mehr dem, was die Macher sich gedacht haben.

Das alleine ist schon Quatsch. AAA Spiele (und auch praktisch alles andere) nutzt seti +10 Jahren praktisch nur noch TAA, da es die einzig gangbare Option darstellt die effektiv in modernen Spielen Aliasing bekämpfen kann.

DLSS, XeSS und modernes FSR sind alles Abwandlungen von TAA(U).

All diese Techniken wurden von den Entwicklern eingebaut und sind der Zustand gegen den das Spiel auch getestet wird. Und in den meisten Games ist ein spielen ohne AA (nachvollziehbar) gar nicht vorgesehen oder möglich.

Noch mehr "Artistic Intent" geht praktisch gar nicht.
ebird schrieb:
Da ist FSR immer näher am Original dran als DLSS und für mich die bessere Technik.
Es gibt kein Original. TAA ist eine veralterte Technik, welche den Entwickler auf Grund ihrer Einschränkungen eher weniger Möglichkeiten bietet das Endergebnis zu designen als moderne Alternativen.

Wenn du ein Referenzbild möchtest, finde eine Möglichkeit AA komplett auszuschalten und supersample dann mit der 16 fachen Auflösung / 4x pro Achse (2x pro Achse von 4K auf interne 8K aka 8 Millionen Pixel auf 32 Millionen erreicht in Bewegung in modernen Games nicht die gleiche Anti Aliasing Leistung wie DLSS) und downsample zurück zu deiner (hoffentlich 4K) Output-Auflösung.

Dann hast du ein echtes Referenzbild das du von mir aus auch als Original bezeichnen kannst. Das ist dann aber ein Original das wahrscheinlich noch keiner der eigentlichen Entwickler gesehen hat.

ebird schrieb:
Das ist wie bei den ganzen Fernseheinstellungen mit Sättigung hoch und Nachtschärfen auf Maximum, sodass es nur noch unnatürlich aussieht.
Sorry aber ich sag es mal so wie ich es sehe: Du hast keine Ahnung von dem was du hier schreibst.

Nein, moderne temporal Rekonstruktionsupsampler sind nicht wie die Post-Processing Filter deines Fernsehers sondern erzeugen ein höher aufgelöstes Bild in dem sie temporale Informationen aus den vorherigen (und extra dafür gejitterten) Frames mit einbauen. Der Output ist generell nicht wegen nachschärfen schärfer sondern da er mehr Details hat als ein einzelnes, rohes Bild ohne AA.

Das ist auch nicht böse gemeint, aber ich finde es erschreckend wieviele hier ihre Meinung zu dem Thema abgeben ohne in den 6 Jahren seit DLSS 2 jemals auch nur das Grundprinzip verstanden zu haben.
 
  • Gefällt mir
Reaktionen: Quidproquo77, ElliotAlderson und Grestorn
reverend_kane schrieb:
Was einmal weg ist, bleibt weg. Da wird nichts zurückgeholt, es wird etwas dazuerfunden basierend auf Interpolation, Wahrscheinlichkeit und Schätzung. Genau so sieht es auch aus, viele haben sich scheinbar an diesen unnatürlichen Look gewöhnt und bevorzugen ihn, jeder wie er mag, für mich ist es aber nix.
Das ist falsch zumindest was DLSS und FSR AI angeht, beschäftige dich bitte mal mit dem Thema und urteile dann neu. Wenn die spiel interne Kantenglättung Details verschwinden lässt, weil man mit TAA kein, ansonsten einigermaßen flimmerfreies Ergebnis liefern kann, werden die Texturen und der Rest einfach überfahren und es gehen Details auf dem Monitor verloren. Das heißt ja nicht das diese nicht vorliegen nur werden sie durch die aggressive Anwendung einfach vermatscht. Wenn man die Kantenglättung nun mit FSR AI oder DLSS auf andere intelligentere und auch aufwendigere Art angeht, geht da eben weniger bis gar nichts verloren da wird auch nicht viel interpretiert oder rekonstruiert.

Es gibt einige Spiele wo man das interne TAA komplett per Ini abschalten kann schau dir Das mal an da glaubst Du das ist ein anderes Spiel, eher ein Remastered oder so. TAA ist und war oft eine Seuche und das weichgespülte und unscharfe Bild hat sich in den letzten Jahren in die Köpfe eingebrannt, weil man ja nichts anderes mehr bekommen hat. Das sind Kompromisse die, die Entwickler eingehen mussten und müssen, aber glaube mir keiner erstellt gerne hochauflösende Texturen bei denen 50% der Details im fertigen Produkt überhaupt nicht gesehen werden
 
  • Gefällt mir
Reaktionen: theGoD und Grestorn
Ich habe mich, durch den Kauf eines 4k-Monitors, bemüßigt gesehen, mit diesen Einstellungen zu experimentieren. Mit FG konnte ich überhaupt nichts anfangen. Ich weiß nicht, ob es dieser Input-Lag ist, aber dazu war der Effekt sehr stark. Das Bild zog den Mausbewegungen nach wie an einem Gummiband. Vlt ist diese Technik praktisch, wenn mein einen Film schaut, aber nicht zum Zocken.
Upscaling funktioniert aber überraschend gut, sogar auf einer GTX1080. In Verbindung mit einer fps-Limitation (90fps) sollte doch die GPU sogar sparsamer werden, bei Rechenleistung und Stromverbrauch (+Abwärme). Wenn die GPU schneller fertig ist, gibt es vlt auch noch Zeit um andere Dinge zu erledigen, die sonst zu Rucklern führen.
 
Rickmer schrieb:
Aber ihr wisst sicher besser als nvidia was nvidia macht...
NVIDIA selbst schreibt, dass das ML-Modell dafür da ist, um das Neighborhood-Clamping durchzuführen. Dazu werden sonst manuell definierte Heuristiken genutzt. Beim Neighborhood-Clamping werden allerdings keine Bildinformationen hinzugefügt, sondern entfernt (bei Kollisionen zwischen den Teilframes). NVIDIA zieht hier selbst den Vergleich zu klassischen Heuristiken.

http://behindthepixels.io/assets/files/DLSS2.0.pdf
https://www.sciencedirect.com/science/article/abs/pii/S092427162030277X?via=ihub

Der Machine-Learning-Algorithmus fügt seit DLSS2.0 keine Bildinformationen mehr hinzu, sondern filtert aus den vorhandenen die heraus, die dort falsch sind.
 
  • Gefällt mir
Reaktionen: Quidproquo77, Angiesan, theGoD und 3 andere
Angiesan schrieb:
Das ist falsch zumindest was DLSS und FSR AI angeht, beschäftige dich bitte mal ...
Habe ich bereist weiter vorne eingeräumt das ich da falsch lag, nur vergessen den Beitrag noch weiter vorne wo du jetzt drauf reagiert hast zu editieren. 😄
 
  • Gefällt mir
Reaktionen: Angiesan und ElliotAlderson
STM64 schrieb:
Der Machine-Learning-Algorithmus fügt seit DLSS2.0 keine Bildinformationen mehr hinzu, sondern filtert aus den vorhandenen die heraus, die dort falsch sind.
Nichts davon macht meine initiale Aussage, dass nvidia ihre Upscaler gegen mit 16k Auflösung generiertes 'ground truth' trainiert, invalide.
 
NoNameNoHonor schrieb:
Vielleicht gibt es ja welche, die meinen, die KI soll am Besten das komplette Bild ausrechnen, nativ braucht man gar nichts mehr?
Technisch wird man bei jetzigen Upsampling Ansätzen immer ein paar native Frames als Basis brauchen.
Aber prinzipiell, klar, von mir aus kann ein Hamster in einer Kiste meine Frames malen solange das Ergebniss passt.
 
  • Gefällt mir
Reaktionen: Fika und Nihil Baxxter
ErnstHaft99 schrieb:
Assassin's Creed Shadows
blind für das rechte abgestimmt; war zu meiner Überraschung FSR (kontrastreicher, sieht für mich am besten aus)
Fehlender Schatten...fehlende Haare...allgemein matschiger...deine Meinung hat nicht mit subjektiv zu tun
FSR ist auch hier ganz klar letzter
Screenshot (418).png
 
  • Gefällt mir
Reaktionen: Pisaro, Quidproquo77 und ElliotAlderson
KarlsruheArgus schrieb:
Lieber spiele ich komplett ohne Kantenglättung als mit TAA.
Also mit Fake-Schärfe und Fake-Details. Nichts anderes sind harte Pixelkanten. Das hat nichts mit echter Detailtiefe zu tun.
Ergänzung ()

KarlsruheArgus schrieb:
Meine Augen kommen mit Flimmern deutlich besser zurecht als mit Unschärfe.

Das kann ich sogar nachvollziehen. Das Auge empfindet harte Kontraste als Schärfe, weil es die Linse in den Augen darauf "scharf" stellt. Und diese Kontraste hast Du besonders an den Pixelkanten.

Nur sind das eben eigentlich "falsche" Kontraste, die nur durch das Rasterisieren entstehen. In der Wirklichkeit gibt es die nicht.

Das Bild muss aus sich heraus "scharf" sein, nicht weil es auf Pixel gerendert wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: theGoD
@DaHell63
Könnte aber auch einfach daran liegen, dass sich der Sonnenstand und damit auch der Schattenwurf zwischen und auch während den drei Aufnahmen leicht ändert. Der Wind tut sein Übriges. Oder AMD berechnet die Schatten etwas anders. FSR AI sieht davon abgesehen eigentlich schon ganz gut aus.
 
Rickmer schrieb:
Wort-Wörtlich in der nvidia Beschreibung zu DLSS 2.0 Training:

https://www.nvidia.com/en-us/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/

Aber ihr wisst sicher besser als Nvidia, was Nvidia macht…
Das hast Du missverstanden. Es wird schon gelernt, aber nicht die Bilddaten des zu rendernden Spiels. Das wäre bei der Masse der Spiele auch völlig unmöglich.

Was der Algorithmus lernt, ist, wie z.B. mit Occlusion und anderen Animationseffekten umzugehen ist, quasi um einen Erfahrungsschatz zu bekommen.

Ohne AI wären die Probleme mit Occlusion und bewegten Elementen viel größer. Die Basis des Algorithmus hat mit Bewegung grundsätzlich Probleme, weil dann auf einmal deutlich weniger – oder fast gar keine – Informationen über das zu rendernde Bild an einer Stelle verfügbar sind.

Und was hier gelernt wird, ist, dass der Algorithmus immer wieder mit Szenen gefüttert wird, wie sich Occlusion auswirkt, wie es eigentlich aussehen sollte, sodass er "weiß", wie er die Fehler anhand der wenigen verfügbaren Informationen am besten beheben kann, ohne dass es auffällt.
 
  • Gefällt mir
Reaktionen: ElliotAlderson und Lurtz
Ich verstehe den Hate nicht..... Die GPU Preise explodieren und ich hab den Punkt verpasst auf eine 5070 Ti zu gehen...... Ich wollte auf eine Super 5080 wechseln wegen 20gb.... wissen ja wie das geendet ist. Zu hoch gepokert...

Letztes Jahr noch ein 5700x3d zum bestpreis bekommen (vom 3700) da RT auch GPU intensiv ist.

Worauf ich hinaus will Ich geh jetzt ins 5te Jahr mit meiner 3080 die ich zu 799 damals bekommen habe. Und mit dem DLSS K Preset läuft auf 4k mit 42 prozent render auflösung immer noch alles gut.. Hier und da kackt der VRAM rein.

Allerdings sieht das auf meinem 4K TV in dem abstand wie man halt sitzt wirklich gut aus... Deutlich besser als ein PS spiel oder FSR geschmiere...

Und am 1440p monitor geht sogar oft intern alles in FHD und es sieht für MICH aus wie Nativ oder besser..

Ich danke NV das man so noch über die runden kommt..

Die 2080TI Nutzer haben auch noch ruhe... Allerdings schwächelt die schon hart im RT und DLSS 4.5 kannst da auch knicken

Preset M sieht in 4k auf UP auch noch brauchbar aus. Ist auch spiele abhängig.

Der größte sprung war wirklich als das K Preset kam. Klar das fraß auch nochmal leistung.

Aber DLSS 3 50 Prozent zu 42 prozent DLSS 4.. Sieht 4 besser aus bei gleicher leistung zu DLSS 3
 
  • Gefällt mir
Reaktionen: Jan
Zurück
Oben