Test DLSS 4.5 & FSR AI vs. Nativ im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich

@swage

FSR 4 nutzt auch AI (und heißt deswegen auch so). Und DLSS ist keineswegs an feste Auflösungen und "Upscaling-Verhältnisse" gebunden – was auch immer das sein soll. Manche Spiele haben sogar eine dynamische Basis-Auflösung für Upscaling (DLSS und FSR), d.h. sie variieren die Renderauflösung dynamisch, um eine bestimmte Ziel-Framerate zu halten.

Es werden beim AI-Ansatz weder bei DLSS und FSR Bilder aus durch die AI generiert, falls Du das meinen solltest.

Wenn dir FSR besser gefällt, so ist das absolut ok. Dazu braucht es keine Gründe, die man sich irgendwie zurechtlegen müsste.
 
Persönlich schau ich in jedem Spiel, welche Einstellungen für mich am besten passen, daher teste ich i.d.R. DLSSS, nativ etc. Es kommt wirklich drauf an und ist in jedem Spiel anders.

Beispiel Hunt: Showdown. Absolut unscharfer Pixelbrei in nativer Auflösung (UWQHD). Egal ob FXAA, TXAA, SMAA, DLSS oder FSR verwendet wird. Was jedoch extrem viel bringt ist DSR 2.25 und DLSS Quality. Ich kann endlich was sehen. Braucht aber auch entsprechend starke Hardware.
 
  • Gefällt mir
Reaktionen: Axonteer
mf4t4lr schrieb:
Was jedoch extrem viel bringt ist DSR 2.25 und DLSS Quality. Ich kann endlich was sehen. Braucht aber auch entsprechend starke Hardware.
Damit schiebst Du vor allem den Mipmap LOD nach hinten. Du kannst ja mal probieren, den Mipmap LOD anderweitig zu verschieben, wenn das geht. Ich denke, das Spiel ist da schlicht ungünstig parametrisiert.
 
  • Gefällt mir
Reaktionen: Axonteer
swage schrieb:
ist DLSS nunmal wegen KI an feste upscaling-Verhältnisse gebunden. FSR ist das nicht.
Also ich kann im Treiber meine gewünschte Renderauflösung und damit das Upscaling Verhältnis Prozentgenau einstellen, du etwa nicht?
 
Grestorn schrieb:
Ja, aber eben die sind nicht die Basis. Darauf will ich ja hinaus.
Puh, ich glaube schon, dass die "16K" Daten nach wie vor die Basis sind auf die DLSS trainiert wird. Man kann mit DLSS 4.5 ja selbst mit 111p noch halbwegs ansehnlich spielen.
Grestorn schrieb:
Es gibt keine hochauflösenden Bilder, gegen die trainiert wird.
Bin mir ziemlich sicher, dass es die Daten gibt, nur nicht mehr spielespezifisch, was erklärt warum DLSS unterschiedlich gut funktioniert.
 
  • Gefällt mir
Reaktionen: gartenriese und Rickmer
Ich habe mir jetzt alle Vergleichsvideos angesehen. Es ist schon absolut irre, was bei DLSS 4.5 für Feindetails im Bild sind. TAA ist in der Regel komplett verblurrt, das sieht auch nicht einfach nur unscharf aus, dem Bild fehlt Plastizität und Tiefenwirkung, es sieht aus wie ein Gemälde, und nicht wie ein 3D-Rendering. FSR 4 bringt die Plastizität zurück, verschmiert aber doch noch ordentlich, vor allem bei Vegetation. Das sieht so ähnlich aus wie Videokompressionsartefakte, vielleicht gefällt es vielen deswegen, weil sie den Look von Videos gewohnt sind.

Leider wird das DLSS-4.5-Ergebnis in diesem Vergleich in 4 Spielen nachgeschärft, zu erkennen an den Doppelkonturen. Das macht das sehr gute, detaillierte Bild leider nur unnötig schlechter, denn die vielen Feindetails wirken bei zusätzlicher Nachschärfung schnell übertrieben, das ganze Bild verliert zudem seine Natürlichkeit. DLSS 4.5 bräuchte diese Nachschärfung gar nicht, das Bild wird so gut rekonstruiert, dass würde ohne die Nachschärfung richtig crisp, knackig und natürlich aussehen. In Oblivion Remastered und Warhammer fehlt diese Nachschärfung, und da sieht DLSS 4.5 auch richtig geil aus.

Vielleicht ist es auch möglich, die Nachschärfung pro Spiel nachzujustieren. Da ich keine aktuelle Nvidia-Karte habe, habe ich mir jetzt gebraucht eine RTX 2080 Ti gekauft, um damit ein bisschen rumzuexperimentieren.
 
Quidproquo77 schrieb:
Puh, ich glaube schon, dass die "16K" Daten nach wie vor die Basis sind auf die DLSS trainiert wird. Man kann mit DLSS 4.5 ja selbst mit 111p noch halbwegs ansehnlich spielen.

Bin mir ziemlich sicher, dass es die Daten gibt, nur nicht mehr spielespezifisch, was erklärt warum DLSS unterschiedlich gut funktioniert.
Nun ja. Wie gesagt, ich kann mir das bei der Größe und Rechenleistung des neuronalen Netzes, auf das sie zurückgreifen können, beim besten Willen nicht vorstellen.

Man sieht ja, was es an Leistung und Ressourcen kostet, wenn man lokal (ohne Netzverbindung) mit AI ein beliebiges Bild hochskalieren lassen möchte.

Aber egal. Wissen können wir es nicht, ohne dass NVidia oder AMD selbst die Karten auf den Tisch legt. Nur ein bisschen was verstehe ich schon von den Mechanismen von LLMs und AI im Allgemeinen, auch wenn @Rickmer mir das absprechen will. Deswegen kann ich mir das einfach nicht vorstellen.
 
scryed schrieb:
ist doch blödsin .... keine frage dlss ist gekommen um zu bleiben aber mal erlich wollt ihr es haben wie auf der konsole ?! nur noch brauchbare frames mit den ganzen dlss und co ?
Das ist eher kein Blödsinn, sondern die Realität!
Upscaling gehört jetzt schon bei vielen aktuellen Games dazu, um überhaupt spielbare Frameraten auf 4K oder DQHD zu erzielen. Häufig sieht es sogar viel besser aus als nativ.
Die Konsolen machen es jedenfalls vor, der Vorteil liegt auf der Hand.
Ob man es jetzt will oder nicht: Es ist die Zukunft!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, ElliotAlderson und Grestorn
@Wolfgang
Wer sich die Sequenzen mit viel Zoom und langsamer Geschwindigkeit immer mal wieder ansieht, wird zwar primär Unterschiede in der Bildschärfe erkennen, doch sind diese wirklich sehr gering.
Auch wenn die Unterschiede zwischen den Bildskalierern minimal sind und im Spiel man wohl keine Unterschiede erkennen würde, im Detail sieht man den Unterschied am deutlichsten hier:
1769790799239.png


Es ist schlichtweg unglaublich was DLSS4.5 trotz der niedrigen Auflösung noch für Details herausholen kann, leider scheinen sich dafür die Schatten ständig zu bewegen.
1769791058080.png
 
Zuletzt bearbeitet:
gartenriese schrieb:
Das was du da zitierst ist ja nicht das Training für DLSS sondern die Eingabedaten während dem Spielen.
Der Input für das neuronale Netzwerk ist gleichartig, egal ob Training oder Gaming. Sonst würde das eine nicht auf das andere vorbereiten...

Grestorn schrieb:
Man sieht ja, was es an Leistung und Ressourcen kostet, wenn man lokal (ohne Netzverbindung) mit AI ein beliebiges Bild hochskalieren lassen möchte.
flüstern

Ich glaube er hat noch nicht probiert, ob DLSS Upscaling weiterhin funktioniert wenn er das Netzwerkkabel zieht... und das server-side Upscaling massive Latenz erzeugen würde ist ihm auch noch nicht eingefallen.

Die Latenzen könnten in dem Fall nicht besser sein als nvidia's Gaming-Steam-Dienste... welche deutlich schlechter sind als lokale Spiele mit DLSS aktiv erreichen...

Taxxor schrieb:
Die Details kommen allesamt direkt vom Spiel
Jain.
Klar, das Spiel muss genügend Detail vorgeben, damit der Upscaler erkennen kann was Sache ist.

Frei erfinden kann z.B. Stable Diffusion - DLSS ist dafür nicht gebaut. Wenn überhaupt nichts zu erkennen ist, ist auch der 4K Upscale relativer Matsch. Siehe das Video, das ich auf Seite 2 schon verlinkt hatte, wo jemand auf 240p runter gegangen war.

Aber wenn das mit den temporalen Daten (pixel dithering und was sonst erwähnt wurde) so einfach wäre, dann würden TAA und FSR 3 deutlich besser aussehen als sie es tun. Die haben ja auch temporale Elemente im Algorythmus.

Das neuronale Netzwerk kennt zwar das Wort nicht für die auf letzter Seite erwähnte Stromleitung, aber es kann eine erkennen und weiß, wie sie aussehen soll.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: gartenriese und Andre83hro
Ich schaue mir den Vergleich dank @Wolfgang das erste Mal im Zoom und Side-by-Side Vergleich an und ich muß sagen, dass DLSS 4.5 wirklich beeindruckend ist. FSR AI finde ich rein objektiv wirklich nicht schlecht, aber Nvidia macht es allen wieder einmal vor.
 
Zuletzt bearbeitet:
Interessanterweise finde ich DLSS schon seit 2-3 Jahren in vielen Spielen besser als Native.
Nur in Stalker2 bin ich mir echt unsicher. Da sieht allerdings beides, Native und DLSS, nicht besonders gut aus...
 
  • Gefällt mir
Reaktionen: John_Wick89
Wer es jetzt immer noch nicht verstanden hat, pocht vermutlich auch heute noch auf Software-Rendering statt OpenGL...
 
bei "Call of Duty: Black Ops 7" sind die leute blind? also native sieht da ja wohl am besten aus, bei DLSS und FSR der baum in der mitte sieht ja richtig verschissen aus(bei DLSS noch mehr als bei FSR) und flackert wie nen weihnachtsbaum.
 
XTR³M³ schrieb:
bei "Call of Duty: Black Ops 7" sind die leute blind? also native sieht da ja wohl am besten aus
Häh? Gerade hier fehlt dem nativen Bild komplett die Plastizität und Tiefenwirkung, es sieht aus wie ein Gemälde, flach, ausgeblutet. Das kommt vom TAA. Mit DLSS ist all das wieder da, es sieht wieder dreidimensional aus.
 
  • Gefällt mir
Reaktionen: Quidproquo77
@mario_mendel34 bitte was? reden wir hier von anderen videos? der baum der die ganze zeit genau im fadenkreuz ist... du findest den besser mit DLSS/FSR? der flackert wie sau... denke nicht das es an der zu hohen pixeldichte(27" 4k) von meinem monitor liegt :freak:
 
@XTR³M³ Hast Du den Zoom-Faktor des Players auf 100 stehen? Wenn nicht, dann siehst Du Artefakte des Verkleinerungsalgorithmus des Players und nicht des Original-Materials.
 
Ohne Schmarrn, wo flimmert der Baum? Ich sitze jetzt sehr nah an meinem 42-Zoll-4K-OLED, und sehe nur ein schön detailliertes Bild. Nativ hingegen fehlen die Feindetails, das ganze Bild wirkt ausgeblutet, wie ein sich bewegendes Gemälde. TAA saugt einfach das komplette plastische aus dem Bild. Mir unverständlich, wie man das bevorzugen kann.
 
mTw|Marco schrieb:
Deinen Kommentar hat man schon gut verstanden. Er zeigt, dass du den Artikel eben nicht vollständig gelesen hast🤣
Nö, hast Du nicht. Wenn du etwas von Umfragen, Fragestellungen und menschlicher Psychologie in dem Bereich verstehen würdest, würdest Du verstehen, worauf ich hinaus will/wollte.

Und ich verbitte mir deine haltlosen Unterstellungen. Ich habe den Artikel vollständig gelesen. Dein Smiley zeigt nur deine Hilflosigkeit ...
 
  • Gefällt mir
Reaktionen: mTw|Marco
Zurück
Oben