Test DLSS 4.5 & FSR AI vs. Nativ im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich

Rickmer schrieb:
Oder zitiere mir das Gegenteil in einem Whitepaper von nvidia.
In der Form steht das da eigentlich nicht, zumindest nicht in dem von Dir zitierten Teil. Und selbst wenn: Der Artikel ist ziemlich alt. Auch wenn der zu DLSS 2 gehört, kann er auch damals schon zu ungenau formuliert gewesen sein, wenn der Autor zu sehr an DLSS 1 gedacht hat.

In dem von Dir zitierten Ausschnitt geht es darum, dem Algorithmus prinzipiell beizubringen, wie eine Engine rendert, also wie sie z.B. Motion-Vektoren verwendet. Mit einer Engine zu trainieren heißt ja gerade nicht mit Bilddaten aus konkreten Spielen zu trainieren, also eben "the ground truth".

Es ist jedenfalls völlig klar, dass DLSS schon sehr lange nicht mehr mit "the ground truth" trainiert wird, wie ein Spiel auszusehen hat. Was trainiert wird, sind ganz andere Dinge, wie ich ja schon beschrieben habe.

Und bei FSR 4 ist es nicht anders.
 
@Mimir
ich glaube, nicht jeder kann überall ein "Meister" sein. Die Person, die nicht wusste, wie man FSR (er hat eine AMD Grafikkarte) korrekt einstellt, ist erfolgreich in seinem Beruf und wir zocken die komplexesten Brettspiele und CoSims. Aber irgendwann ist halt auch mal gut.
Übrigens war mein Ursprungskommentar so eine Art Hinweis, warum diese Technik noch kein absolutes Massenphänomen ist. Denn man kann eben nicht beides haben - Nerd-Nische (muss man sich halt mit beschäftigen und einlesen!) und Massenverbreitung. Wenn eine Technik gut UND idiotensicher ist, wird sie sich massenhaft durchsetzen.
 
  • Gefällt mir
Reaktionen: gartenriese und Return2Burn
Grestorn schrieb:
In der Form steht das da eigentlich nicht, zumindest nicht in dem von Dir zitierten Teil. Und selbst wenn: Der Artikel ist ziemlich alt. Auch wenn der zu DLSS 2 gehört, kann er auch damals schon zu ungenau formuliert gewesen sein, wenn der Autor zu sehr an DLSS 1 gedacht hat.
Sag mir, dass du keinen blassen Schimmer hast ohne direkt zu sagen, dass du keinen blassen Schimmer hast.

Grestorn schrieb:
Es ist jedenfalls völlig klar, dass DLSS schon sehr lange nicht mehr mit "the ground truth" trainiert wird, wie ein Spiel auszusehen hat. Was trainiert wird, sind ganz andere Dinge, wie ich ja schon beschrieben habe.
Nö, das ist nirgens klar. Weil nvidia nie etwas der Art gesagt hat - im Gegenteil. Auch zu DLSS 4.5 wurde 'ground truth' noch erwähnt.
 
  • Gefällt mir
Reaktionen: Andre83hro
@Rickmer Danke für die persönliche Beleidigung.

Und eine Quelle bitte für Deine Behauptung.
 
Grestorn schrieb:
Und eine Quelle bitte für Deine Behauptung.
Siehe den Verlauf.

Ich bitte um Quelle, dass sich fundamental etwas geändert hat.
 
  • Gefällt mir
Reaktionen: Andre83hro
@Rickmer Siehe meine nachträgliche Ergänzung zu meinem vor-vorherigen Beitrag, die Du vermutlich nicht gesehen hast.
 
@Wolfgang : wenn ihr noch weiter Bock auf das Thema habt, könntet ihr mal ein paar der Spiele rauspicken, bei denen eine Vergleich mit echtem SSAA möglich ist. Sind nicht viele und FSR fliegt dann vermutlich raus, aber es geht. Das erste Tomb Raider Remake sollte gehen.
Das käme einem Ground Truth Vergleich vermutlich am nähesten in Bezug auf die Bildqualität.

Die einzigen Zwei Titel bei denen man mit DLSS 4.5 Überschärfe feststellen kann sind TLoU und CoD. Da sind mehr oder weniger deutlich Halos bzw. Ringing-Artefakte auszumachen, es hält sich aber in Grenzen.
Wie andere aber schon gesagt haben liegt das nicht an DLSS selber, sondern hat seine Ursache in den Spielen selber.
 
TnTDynamite schrieb:
Vielleicht müsste ich wirklich mal ein Spiel mit vollem Raytracing und DLSS 4.5 lokal spielen, für den beschworenen "Aaha-Effekt".
Es ist dann auch die Frage, ob Dir das automatisch die Investitition in eine neue, teure Grafikkarte wert ist. Den meisten dürfte das mangels andauernder Vergleichbarkeit relativ egal sein, solange der Spielspaß insgesamt passt und diese werden sich nicht in etlichen Spielen hinstellen um native Auflösung oder Upscalingtechnik miteinander zu vergleichen.

Primär spielen die Leute Videospiele doch um Spaß daran zu haben und nicht um permanent Grafikdetails zu vergleichen und kleine Unterschiede fest zu stellen und diejenigen (Lupen- oder Standbild-Gamer), die das doch ungemein wichtig finden, werden sich bestimmt schon lange mit aktuellen/teureren DLSS 4.5-Grafikkarten eingedeckt haben und eben auch vermutlich aktuelle Spiele zum oder kurz nach Marktstart kaufen.

Der Rest kauft Spiele Jahre später und deutlich im Preis reduziert und für den dürften die Feinheiten zwischen Upscale-Techniken keine größere Bedeutung haben, Hauptsache es gibt die Option Upscaling um die Leistung je nach Bedarf zu verbessern (wenn man nicht an Auflösung, Detaillevel, Schatten und anderen generellen Einstellungsmöglichkeiten drehen will) und mit der sich dann verschlechternden Bildqualität lebt man dann eben.

So gesehen sehe ich das ähnlich wie Du und nein, es käme mir nicht in den Sinn wegen Upscaling nur noch auf dem Gaming-Laptop zu spielen, weil die Grafikkarte dort DLSS4.5 unterstützt und die auf dem Desktop nur FSR3.1 (bzw. FSR4 per Mod).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TnTDynamite, CadillacFan77 und Return2Burn
Grestorn schrieb:
dafür bietet ja NVidia in ihrer App an, die Spiele optimal auf die Hardware zu konfigurieren.
Werden hier dann auch die spielinternen Schärfefilter ausgeschaltet, um die Schärfe unter DLSS 4.5 optimal anzuzeigen?

Ernst gemeinte Frage von jemandem, der gerade keine Nvidia GPU zur Hand hat um das selbst zu testen, kein Bashing wegen Conformation Bias oder so, bitte nicht ausrasten.
 
Komposti schrieb:
@Wolfgang : wenn ihr noch weiter Bock auf das Thema habt, könntet ihr mal ein paar der Spiele rauspicken, bei denen eine Vergleich mit echtem SSAA möglich ist. Sind nicht viele und FSR fliegt dann vermutlich raus, aber es geht. Das erste Tomb Raider Remake sollte gehen.
Eigentlich geht das bei fast allen Spielen mit NVidia. Man kann ja im Treiber Super Resolution erzwingen. Klar, man hat dann immer noch meist TAA, aber ab einer bestimmten Basisauflösung stört das dann auch nicht mehr.

Ich fürchte nur, dass das Resultat viele hier ziemlich ernüchtern wird. Ja, es gibt dann praktisch keine Artefakte mehr bei Bewegungen (wenn sie nicht durch TAA verursacht werden), aber die Detailabbildung dürfte selbst gegenüber DLSS-Performance kaum sichtbar besser sein. Und gegen DLSS oder FSR 4 Quality erst recht nicht mehr.
 
Grestorn schrieb:
Siehe meine nachträgliche Ergänzung zu meinem vor-vorherigen Beitrag
Das kann ich spontan schon daran widerlegen daran, dass nvidia bei DLSS 4.0 nochmal von 0 anfangen musste als sie Architektur gewechselt hatten.

Und bei DLSS 4.5 noch einmal weil die Architektur nochmal geändert wurde - das sieht man an den Performance-Einbußen ggü. DLSS 4.0.

Klar kann man bei Finetuning auch Details justieren, aber das ist nicht (nur) was nvidia macht.
 
  • Gefällt mir
Reaktionen: Andre83hro
Nihil Baxxter schrieb:
Werden hier dann auch die spielinternen Schärfefilter ausgeschaltet, um die Schärfe unter DLSS 4.5 optimal anzuzeigen?

Ernst gemeinte Frage von jemandem, der gerade keine Nvidia GPU zur Hand hat um das selbst zu testen, kein Bashing wegen Conformation Bias oder so, bitte nicht ausrasten.
Nur wenn die Option im Spiel einstellbar ist. Und dann ist es am Ende ja auch Geschmacksache. Die meisten gerade unerfahrenen Anwender werden sich eher selten an den Artefakten eines Post-Processing Schärfefilter stören.

Es geht eher darum, dass die optimale Balance zwischen Performance und Bildqualität gefunden wird. Das macht die NVApp in meinen Augen nicht immer optimal, aber es ist auf jeden Fall besser als wenn jemand gar nichts einstellt, weil er überfordert ist mit all den Optionen.

Und das ist gar nicht so ungewöhnlich.

50% lassen alles auf den Default-Einstellungen. Weitere 45% stellen alle Regler ganz nach rechts. Ich würde mich wundern, wenn 5% tatsächlich sinnvoll sich mit den Einstellungen auseinandersetzen.
Ergänzung ()

Rickmer schrieb:
Das kann ich spontan schon daran widerlegen daran, dass nvidia bei DLSS 4.0 nochmal von 0 anfangen musste als sie Architektur gewechselt hatten.
Häh? Diese Behauptung kommt ja wohl komplett aus dem Orkus, oder? Wo hat DLSS 4 von 0 anfangen müssen? Implizierst Du, dass erst mal alle Spiele mit DLSS 4 (Transformer) schlecht ausgesehen haben, mangels Trainingsdaten?

Und natürlich werden die Algorithmen über die Zeit besser, je mehr man trainiert. Irgendwie scheinst Du nicht wahrzunehmen, dass ich nie bestritten habe, DASS trainiert wird. Nur die DATEN mit denen trainiert wird, verstehst Du völlig falsch.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Nihil Baxxter
Grestorn schrieb:
Wo hat DLSS 4 von 0 anfangen müssen?
Beim Training natürlich.
Wie willst du denn ein CNN in einen Transformer umwandeln? Das ist technisch völlig unmöglich. Allein die Vorstellung ist absurd.

Bei neuen Architekturen muss man immer das Training wieder komplett von vorne beginnen.

Grestorn schrieb:
Und natürlich werden die Algorithmen über die Zeit besser, je mehr man trainiert. Irgendwie scheinst Du nicht wahrzunehmen, dass ich nie bestritten habe, DASS trainiert wird. Nur die DATEN mit denen trainiert wird, verstehst Du völlig falsch.
Was du beschreibst ist finetuning. Das wird sicherlich auch gemacht, aber ist nicht für die großen Sprünge bei Qualität zuständig*. Das erreicht man primär über verbesserte Architektur.

Egal ob LLM, Bildgenerator, Videogenerator oder AI Upscaler: Wer's besser machen will, muss von vorne anfangen. Nur die Trainingsdaten kann man weiter nutzen - im Optimalfall.

*Stable Diffusion 1.5 mal ausgenommen. Da hat Finetuning durch die Community extrem viel Unterschied gemacht. Aber das war als generative AI noch viel weniger erforscht war als jetzt - und es gibt einen Grund, warum SD1.5 heute nicht mehr relevant ist. Nach heutigen Standards ist SD1.5 einfach nur strohdumm.
 
  • Gefällt mir
Reaktionen: Andre83hro
Battlefield 6, Space Marine 2 und Stalker 2 sehen gut aus und laufen deutlich besser mit FSR4. Da muss ich nicht Screenshots machen und im Detail prüfen wo hier der Fehler im Bild ist.

Laut unabhängigen Tests passt das Bild, dann nutze ich die Zeit und Performance und genieße die Spiele anstatt das Haar in der Suppe zu suchen.

Schönes Wochenende.😁
 
  • Gefällt mir
Reaktionen: BeowulfAgate, Grestorn, Angiesan und eine weitere Person
Grestorn schrieb:
Ich fürchte nur, dass das Resultat viele hier ziemlich ernüchtern wird. Ja, es gibt dann praktisch keine Artefakte mehr bei Bewegungen (wenn sie nicht durch TAA verursacht werden), aber die Detailabbildung dürfte selbst gegenüber DLSS-Performance kaum sichtbar besser sein. Und gegen DLSS oder FSR 4 Quality erst recht nicht mehr.
Genau das wäre ja interessant zu sehen, dass wir tatsächlich schon bei einer Bildqualität angekommen sind, die mehrfachem Super Sampling entspricht nur bei einem Bruchteil der Kosten.
 
  • Gefällt mir
Reaktionen: Grestorn
Rickmer schrieb:
Beim Training natürlich.
Wie willst du denn ein CNN in einen Transformer umwandeln? Das ist technisch völlig unmöglich. Allein die Vorstellung ist absurd.

Bei neuen Architekturen muss man immer das Training wieder komplett von vorne beginnen.
Ja, aber nicht mit Bilddaten aus Spielen.

Da wir uns wohl gegenseitig nicht überzeugen werden, und Du bei der für mich absurden Annahme bleiben willst, dass NVidia ihren Algorithmus mit allen Bilddaten aller Spiele trainiert, ist das hiermit EOD über dieses Thema mit Dir.
 
Grestorn schrieb:
Ja, aber nicht mit Bilddaten aus Spielen.
Womit denn sonst?
Es gibt keine alternativen Daten, die nvidia verwenden kann.

Grestorn schrieb:
Da wir uns wohl gegenseitig nicht überzeugen werden, und Du bei der für mich absurden Annahme bleiben willst, dass NVidia ihren Algorithmus mit allen Bilddaten aller Spiele trainiert, ist das hiermit EOD über dieses Thema mit Dir.
Da du in den letzten paar Beiträgen eindeutig gezeigt hast, dass du keinen blassen Schimmer hast wie das Training von neuronalen Netzwerken funktioniert, kann ich auch damit leben.
 
  • Gefällt mir
Reaktionen: Andre83hro
Leute, die viel besser beleidigen als argumentieren können -> Ignore. Lebenszeitverschwendung.
 
Call of Duty: Black Oops 7 ist mit DLSS total überschärft. Schaut ja gruselig aus, der Schnee besteht aus lauter Mini-Bombentrichtern . Hat wohl, im Gegensatz zu "Nativ", wohl frisch geregnet :D
Zudem sieht man, vor allem bei den Schatten-Abgrenzungen, deutliche "Treppenstufen".
 
@Tuetensuppe Der Witz ist, dass man, würde man das Bild mit Supersampling rendern, das Glitzern auf dem Schnee vermutlich auch wieder deutlicher sichtbar werden würde. Jedenfalls mehr als bei "native".

Dass es bei Native wegfällt, ist mit hoher Wahrscheinlichkeit genau der Tatsache geschuldet, dass die Glitzerpunkte im Schnee mal auf einen Pixel fallen – und deswegen dargestellt werden – und mal eben nicht – und deswegen unterschlagen werden.

Genau das Problem bei native Rendering. Die Rasterizing-Artefakte.
 
  • Gefällt mir
Reaktionen: gartenriese
Zurück
Oben