Test DLSS 4.5 & FSR AI vs. Nativ im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich

Kowa schrieb:
Ich habe mich, durch den Kauf eines 4k-Monitors, bemüßigt gesehen, mit diesen Einstellungen zu experimentieren. Mit FG konnte ich überhaupt nichts anfangen. Ich weiß nicht, ob es dieser Input-Lag ist, aber dazu war der Effekt sehr stark. Das Bild zog den Mausbewegungen nach wie an einem Gummiband. Vlt ist diese Technik praktisch, wenn mein einen Film schaut, aber nicht zum Zocken.

Dann hast Du den Kardinalfehler bei FG gemacht: Die Basis-Framerate war zu gering. FG ist nicht dazu da, eine spielbare Framerate zu bekommen. Die muss schon vorher da sein.

FG kann also nur z.B. 80->120 fps machen, nicht 40->60fps. Letzteres macht keinen Spaß, es fühlt sich komisch an, immer noch 40fps-ig.

Und was bringt 120fps gegenüber 80fps? Bewegungsschärfe! Und Flüssigkeit.
Ergänzung ()

Rickmer schrieb:
Nichts davon macht meine initiale Aussage, dass nvidia ihre Upscaler gegen mit 16k Auflösung generiertes 'ground truth' trainiert, invalide.
Doch.

Allein schon die Annahme, dass NVidia ihren Algorithmus mit allen Spielen und allen Szenen in all diesen Spielen trainieren müsste... Überleg doch mal.
 
@Grestorn das Problem ist, dass es für viele tatsächlich zu kompliziert ist. Ich musste neulich einem ü40 Kumpel, mit dem ich in den frühen 2000ern LAN parties veranstaltet habe, erklären, wie er das bei Cyberpunk für seine Grafikkarte richtig einstellt.. und das wird 100% kein Einzelfall sein.
 
  • Gefällt mir
Reaktionen: danyundsahne, gartenriese, Return2Burn und 2 andere
@n8mahr Ok, kann ich verstehen. Aber genau dafür bietet ja NVidia in ihrer App an, die Spiele optimal auf die Hardware zu konfigurieren.

Aber in den Foren ließt man überall, dass man das nicht nehmen solle, weil es ja Scheiße sei.

Also was jetzt?
 
  • Gefällt mir
Reaktionen: ElliotAlderson und xexex
Merkt man selbst hier im Enthusiasten Forum, dass das alles nicht selbsterklärend ist.
 
  • Gefällt mir
Reaktionen: Jan, gartenriese, Return2Burn und eine weitere Person
Na ja, Raketenwissenschaft ist das jetzt auch nicht. Zumindest, wenn man sich nur ein wenig auskennt. Entweder App (easy) oder ProfileInspector (zu Fuß, mehr manueller Aufwand und etwas anspruchsvoller).

Die Hintergründe und Details sind da schon komplexer und schwieriger zu durchdringen, das Einstellen weniger.
 
@n8mahr
Dass man sich bei PC Gaming ein bisschen mit der Technik beschäftigen sollte ist jetzt auch nichts neues.
Heute ist das alles sogar deutlich einfacher, als z.B. noch in den 90ern, wo PCs noch richtiges Nerd thema waren.

Wer das nicht möchte hat mit den Konsolen eine wunderbare Alternative.

Aber so ist es nunmal. Wer "das beste" will, hat idr. auch den größten Aufwand. Das beste ist selten das simpelste.

Ich frag mich ja immer wie Leute dann überhaupt mit den Spielen selbst klar kommen. Spiele zu bewältigen, die mechaniken zu verstehen und zu verinnerlichen, das alles ist mindestens so komplex, oft sehr viel komplexer, als ein paar DLSS oder Grafikeinstellungen. Wer so eine gute Auffassungsgabe hat und ein völlig neues und unbekanntes Spiel mit komplexem Kampfsystem durchspielen kann, der sollte auch keine Probleme haben, solche Themen wie hier zu verstehen. Die Leute sind doch nicht auf den Kopf gefallen, nur scheinbar meistens einfach zu faul?
 
  • Gefällt mir
Reaktionen: Metis und Nihil Baxxter
Puh, ich bin wohl einfach zu alt. Das sieht doch alles gleich aus. Die Unterschiede sind für mich so dermaßen gering, dass ich mich im Zweifelsfall immer für die Variante mit den meisten FPS und besten LOWs entscheiden würde.
 
  • Gefällt mir
Reaktionen: h2f, ParrotHH und Andre83hro
DaTheX schrieb:
Puh, ich bin wohl einfach zu alt. Das sieht doch alles gleich aus. Die Unterschiede sind für mich so dermaßen gering, dass ich mich im Zweifelsfall immer für die Variante mit den meisten FPS und LOWs entscheiden würde.
Ist ja auch völlig ok. Und viel besser als sich irgendwelchen Paradigmen unterzuordnen, à la "nur native ist wahr".
 
  • Gefällt mir
Reaktionen: Hamstergeddon, gartenriese, ElliotAlderson und 2 andere
Benutze seit Control in 90% der Fällen DLSS (quality) – das hätte mich damals schon überzeugt. Software/Spiele wie auch Hardware sind ja immer Kompromisse. Und das ist das tolle an PC-Gaming, dass man die Erfahrung stark seinen Bedürfnissen nach anpassen kann. Der (enorme!) Netto-Performance-Gewinn plus oft mehr Detailschärfe lassen mich über die Nachteile (Bewegungsartefakte) hinwegsehen. Guckt man sich die Umfragen an, scheint die Mehrheit in den hier möglichen Spielen auch mit DLSS zu spielen.

Der Trend zu immer höherer Auflösung konnte sich nicht (jenseits von 4k) durchsetzen. Als 4k salonfähig wurde, war ich immer noch vom Bild enttäuscht, wenn nicht TAA dazugeschaltet wurde – zu viel Flimmern, zu unruhig, immer noch sichtbare Treppchenbildung. Selbst downsampling von noch höheren Auflösungen konnte dem, in einigen Spielen, nicht Herr werden.
 
  • Gefällt mir
Reaktionen: Grestorn
Als Hobbyfotograf finde ich 90% der Handyfotos auf einem großen Monitor im Gegensatz auf einen Handydisplay überschärft (inkl. heftigster Halos) und gruselig digital. Jede 1" Kompaktkamera macht in den richtigen Händen (!) bessere Aufnahmen.
Es wundert mich daher nicht, dass hier hochskalierte überschärfte DLSS-Artefakte als eine "bessere Bildqualität" empfunden werden. Wie auch bei Handyaufnahmen bedeutet heutzutage Qualität etwas anderes als früher... ;-)
 
  • Gefällt mir
Reaktionen: h2f
Grestorn schrieb:
Das hast Du missverstanden. Es wird schon gelernt, aber nicht die Bilddaten des zu rendernden Spiels. Das wäre bei der Masse der Spiele auch völlig unmöglich.
Nö, du hast nur meine Worte falsch interpretiert und/oder unterstellst mir willkürlich Worte die ich nicht geschrieben habe.

Und natürlich trainiert nvidia mit Daten aus diversen Spielen. Womit sollen die sonst trainieren? Dem Bilderkatalog von Wikipedia? Der Videobibliothek von Pornhub?

Es muss mit in-engine Daten trainiert werden, weil um nvidia nochmal zu zitieren:
DLSS 2.0 has two primary inputs into the AI network:
  1. Low resolution, aliased images rendered by the game engine
  2. Low resolution, motion vectors from the same images -- also generated by the game engine
Wo willst du sonst motion vectors her bekommen? Und warum nutzt nvidia das sehr spezifische Wort game engine?

Grestorn schrieb:
Was der Algorithmus lernt, ist, wie z.B. mit Occlusion und anderen Animationseffekten umzugehen ist, quasi um einen Erfahrungsschatz zu bekommen.
Alles das und noch viel mehr. Weil man einem neuralen Netzwerk nichts hyperspezifisches beibringen kann, sondern man kann nur die Trainingsdaten anpassen um eine Problemstelle stärker zu gewichten.

(Und dein Wort Algorythmus ist auch eine suboptimale Wahl... das passt besser zu FSR 3 und dessen Vorgängern.)

Grestorn schrieb:
Allein schon die Annahme, dass NVidia ihren Algorithmus mit allen Spielen und allen Szenen in all diesen Spielen trainieren müsste... Überleg doch mal.
Leg mir keine Worte in den Mund. Das habe ich nirgends geschrieben.

Aber ganz ohne Trainingsmaterial geht auch nichts. Logisch, oder? Und nvidia hat selbst gesagt, wie sie ihre Trainingsdaten erzeugen.

Das ist kein Stable Diffusion, das mit milliarden aus dem Web aufgeklaubten Bildern trainiert wird. Es wird nicht mehr für jedes Spiel ein eigenes Model trainiert, aber es wird immernoch mit Daten aus Spielen für Spiele trainiert. Nur jetzt mit Daten aus einer Vielzahl Spielen damit es möglichst allgemein nutzbar ist.
 
  • Gefällt mir
Reaktionen: Andre83hro
Tobias123 schrieb:
Es wundert mich daher nicht, dass hier hochskalierte überschärfte DLSS-Artefakte als eine "bessere Bildqualität" empfunden werden. Wie auch bei Handyaufnahmen bedeutet heutzutage Qualität etwas anderes als früher... ;-)
DLSS / FSR ist nicht einfach nur hochskaliert. Schade, dass jemand, der sich auf die Fahnen schreibt, sich mit Fotografie intensiv zu beschäftigen, das einfach nicht wahrhaben will und sich nicht entsprechend informiert.

Beide Verfahren reproduzieren echte Details, die ein Rendering in nativer Auflösung nicht haben kann. Wenn Du nicht weißt, wie das geht, lies meine und andere Postings in diesem Thread.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
DaTheX schrieb:
Die Unterschiede sind für mich so dermaßen gering
Für mich sind die Unterschiede zwar schon noch gut sichtbar, aber ich könnte mich auf jeden Fall mit beidem sehr gut abfinden, insbesondere, wenn ich dann wirklich am Spielen bin und nicht mehr am "suchen".

Das war mit FSR 3.1 und darunter noch nicht so, das hat mich tatsächlich so gestört im Spiel (@1440p), dass ich darauf verzichtet und dafür lieber andere Grafikoptionen heruntergeschraubt oder mit weniger Frames gespielt habe.

DaTheX schrieb:
dass ich mich im Zweifelsfall immer für die Variante mit den meisten FPS und besten LOWs entscheiden würde.
Die Entscheidung zwischen DLSS und FSR muss man halt nur leider beim Kauf der GPU schon treffen und dann auch fest dabei bleiben. Zumindest, wenn man nicht mit Optiscaler arbeiten möchte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DaTheX
rollmoped schrieb:
Wenn die Renderauflösung nicht zu niedrig ist, kann das dazu führen, dass im upgescalten Bild mehr Details zu erkennen sind, als im Ursprünglichen. Weil das neuronale Netz eben dazu in der Lage ist, mehr Details hinzuzudichten, als im nativen Bild waren. Solange das stimmig aussieht, hat man dann den Eindruck, dass das teilweise erfundene Bild "besser" aussieht.
Es steckt ein temporaler Anteil in den Upscalern. Wenn Details im nativen Bild in den letzten X Frames vorhanden sind, dann werden diese aufgrund der Information der letztes Frames interpoliert. Hinzudichten tun die Upscaler nichts.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Rickmer schrieb:
Und natürlich trainiert nvidia mit Daten aus diversen Spielen. Womit sollen die sonst trainieren? Dem Bilderkatalog von Wikipedia? Der Videobibliothek von Pornhub?
Nein, genau das tun sie nicht. Du hast mich nicht verstanden. Lies meinen Beitrag nochmal.

Rickmer schrieb:
Aber ganz ohne Trainingsmaterial geht auch nichts. Logisch, oder? Und nvidia hat selbst gesagt, wie sie ihre Trainingsdaten erzeugen.

Dass ein AI-Algorithmus auf erlernte Informationen zurückgreift, ist schon im Namen enthalten.

Aber es werden eben keine Daten aus den Spielen erlernt, wie Du insistierst. Es wird erlernt, wie man aus unterdefinierten Informationen die Originaldaten am besten restaurieren kann. Das ist etwas anderes und es ist eben auch nicht "Details hinzuerfinden", wie immer behauptet wird.

Wenn etwas "erfunden" wird, dann nur, wie z.B. die Fläche hinter einem sich wegbewegendem Objekt (Okklusion) so reproduziert werden kann, dass es schlüssig aussieht. Die Details bei stehender oder normal animierter Grafik werden nicht dazugedichtet oder aus erlernten Daten abgeleitet.
 
Iscaran schrieb:
Da kann ich nicht zustimmen. TAA ist ein AA modus von mehreren es gibt ja noch andere. Ich nutze eigentlich meisst das adaptive AA, da dies imho am besten aussieht. MSAA neigt in der Tat zu flimmern.
MSAA ist seit knapp einer Dekade tot.
Einerseits liegt das am enormen Leistungshunger andererseits daran, dass MSAA in modernen Spieleen viele Effekte gar nicht mehr erfasst und damit auch nicht glättet.
Adaptive AA ist, nun ja, gar nichts. Adptiv sagtja erstmal gar nichts über die verwendete AA Methode aus, das könnte auch adaptivew FXAA sein. Woher hast du den Begriff denn? Aus nem Treibermenü würde ich annehmen?
Also nein, es gibt heute de facto kein AA mehr ausser TAA und eben Upscaling.
 
Grestorn schrieb:
Nein, genau das tun sie nicht.
Natürlich tun sie das. Siehe das Zitat von nvidia.
Oder zitiere mir das Gegenteil in einem Whitepaper von nvidia.

Grestorn schrieb:
Du hast mich nicht verstanden. Lies meinen Beitrag nochmal.
Grestorn schrieb:
Aber es werden eben keine Daten aus den Spielen erlernt, wie Du insistierst. Es wird erlernt, wie man aus unterdefinierten Informationen die Originaldaten am besten restaurieren kann. Das ist etwas anderes und es ist eben auch nicht "Details hinzuerfinden", wie immer behauptet wird.
Okay. Klär mich auf.
Wo holt nvidia deiner Meinung nach die Trainingsdaten her?

Bitte eine Erklärung, die erläutert wie
1) diese Beschreibung korrekt ist (und/oder ein Beweis, dass nvidia im eigenen Whitepaper lügt)
DLSS 2.0 has two primary inputs into the AI network:
  1. Low resolution, aliased images rendered by the game engine
  2. Low resolution, motion vectors from the same images -- also generated by the game engine
2) aber trotzdem nicht mit Daten von Spielen trainiert wird, obwohl es das einfachste und offensichtlichste wäre einen Modus für den Output von Trainings-Daten als Teil der bestehenden DLSS Integration von Spielen zu schaffen
3) Mit welcher Engine und welchen Daten stattdessen das Training gefütternt wird

Grestorn schrieb:
Wenn etwas "erfunden" wird, dann nur, wie z.B. die Fläche hinter einem sich wegbewegendem Objekt (Okklusion) so reproduziert werden kann, dass es schlüssig aussieht. Die Details bei stehender oder normal animierter Grafik werden nicht dazugedichtet oder aus erlernten Daten abgeleitet.
Nee, völlig verdeckte Bereiche einfüllen war eine Funktion die Reflex 2 haben sollte. Welches noch immer nicht rausgekommen ist.

Und natürlich werden Details aus dem Training abgeleitet. So funktioniert jeder Upscaler auf Basis eines neuralen Netzwerk. Wo sonst sollen die herkommen? Im Input fehlen die aufgrund der niedrigen Auflösung und aus dem Nichts können die nicht entstehen.
 
  • Gefällt mir
Reaktionen: Andre83hro
Zurück
Oben