Test DLSS 4.5 vs DLSS 4 vs. FSR AI im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich

Wolfgang schrieb:
DLSS Super Resolution und FSR Upscaling (AI) fügt keinen zusätzlichen Input-Lag hinzu.
Müsste Upscaling nicht potentiell sogar den Input-Lag senken, sofern man die FPS nicht durch V-Sync oder ein FPS-Limit beschränkt?

Denn der Zweck vom Upscaling ist ja, die interner Renderauflösung und damit den Renderaufwand zu senken, wodurch man in Folge mehr tatsächlich gerenderte FPS erreicht. Und mehr Render-FPS bedeutet dann auch, dass Inputs in kürzeren Intervallen verarbeitet werden und in die dargstellten Frames einfließen.
 
  • Gefällt mir
Reaktionen: BlueBringer, Quidproquo77, rumpeLson und eine weitere Person
Iconoclast schrieb:
Man schaue sich mal das Video bei 22:30 hier an, der skaliert von 240p hoch und das sieht einfach gut aus.
Beachtlich ja, aber gut? Das schaut schlecht aus.
 
  • Gefällt mir
Reaktionen: KeinNutzerName und AvenDexx
@Wolfgang Beim erreichen von genügend FPS: Nutzt man dann dennoch DLSS und FSR Upsampling oder eher z. B. FSR AA + native Auflösung?
 
DLSS 4.5 ist überwältigend! Das Bild sieht unglaublich scharf aus. Als ob man mit einer Texturstufe höher spielen würde. Mir fällt noch immer die Kinnlade runter auf meiner 5090 wenn ich zwischen dlss 4 und 4.5 vergleiche. DLSS Balanced mit preset M ist völlig ausreichend wenn man 4.5 nutzt. Sieht tausend Mal besser aus als dlss 4 quality und läuft gleich schnell.
 
  • Gefällt mir
Reaktionen: Samuelz, Quidproquo77 und Özil
Aerobraking schrieb:
Ich wünsche mir screenshots die man umschalten kann mit reingezoomten Bildausschnitten. Ich lese oft auf dem Smartphone und da bringen mir die Videos gar nichts. 😪
Screenshots sind für Upsampling-Vergleiche leider ziemlich ungeeignet, denn diese zeigen da einfach nicht die Wahrheit. Ich verstehe zwar, dass das auf Smartphones leider ein Problem ist, aber auf den kleinen Displays wird es ohnehin schwer bis unmöglich fallen, Unterschiede zu sehen.

Daher meine Empfehlung: Die Videos ausschließlich auf einem Monitor ansehen. So spielt man die Spiele dann ja auch :)
mibbio schrieb:
Müsste Upscaling nicht potentiell sogar den Input-Lag senken, sofern man die FPS nicht durch V-Sync oder ein FPS-Limit beschränkt?

Denn der Zweck vom Upscaling ist ja, die interner Renderauflösung und damit den Renderaufwand zu senken, wodurch man in Folge mehr tatsächlich gerenderte FPS erreicht. Und mehr Render-FPS bedeutet dann auch, dass Inputs in kürzeren Intervallen verarbeitet werden und in die dargstellten Frames einfließen.
Wie gesagt, mit Upsampling (Super Resolution, Upscaling) werden "die Regeln" nicht geändert.
Die Regel: Mehr FPS = geringere Latenz.

Also ja, wird durch Upsampling die FPS erhöht, verringert/verbessert sich die Latenz.
 
  • Gefällt mir
Reaktionen: Volvo480, BlueBringer, coral81 und 5 andere
Xechon schrieb:
@Wolfgang Beim erreichen von genügend FPS: Nutzt man dann dennoch DLSS und FSR Upsampling oder eher z. B. FSR AA + native Auflösung?
Naja, die Frage ist, was man möchte.
Angenommen, FPS sind kein Problem, also ich hätte immer so viele FPS wie die Bildwiederholfrequenz meines Monitors hergibt, würde ich folgendes machen.

Entweder:
a) Ich will maximale Bildqualität. Also schalte ich DLAA oder FSR Native hinzu.
b) Ich will maximale Effizienz und Lautstärke: Also schalte ich trotzdem DLSS/FSR Quality hinzu. Das reduziert die Last auf die Grafikkarte bei sehr ähnlicher Bildqualität.

Das ist Geschmackssache. DLAA und FSR Native halte ich, um ehrlich zu sein, nur noch für wenig sinnvoll. DLSS Quality und FSR Quality sehen kaum anders aus. Darum würde ich eher die Modi nehmen als das allerletzte Quäntchen herauszuholen. Aber das kann jeder machen wie er möchte.
 
  • Gefällt mir
Reaktionen: Samuelz, coral81, schneeland und 4 andere
Wolfgang schrieb:
ICAT ist quasi nur ein Videoplayer. Ja, der stammt von Nvidia, hat aber absolut null Einfluss auf die Bildqualität. Es wird nur die Plattform gestellt, um Videos zu integrieren, abzuspielen und Features anzubieten (Zoom, Scrollen etc.).

Natürlich hat Nvidia ICAT nicht aus Herzensgüte gebaut. Sondern schlicht deswegen, weil sie sich sicher sind, dass sie die besseren Features haben und das mit einem wie ICAT aufgebauten "Videoplayer" einfach besser zeigen können, da dieser Features bietet, die die anderen Player einfach nicht haben.
Ok danke
 
  • Gefällt mir
Reaktionen: Jan
Brrr schrieb:
Das schaut schlecht aus.
Für 240p Ausgangs-Gepixel sieht das super aus. Sagt ja auch niemand, dass du jetzt in 240p (bzw. DLSS 4.5 720p) spielen sollst, sondern es geht darum, was 4.5 aus so einem Pixelmatsch zaubert, vor allem im Verhältnis zu TAA. Das lässt sich ja auch problemlos auf höhere Auflösungen übertragen.

Screenshot (185).png wird zu Screenshot (184).png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: angHell, derMutant, lawjumper und 5 andere
@Wolfgang
Wie wollt ihr das eigentlich zukünftig mit Benchmarks handhaben?
DLSS4.5 sieht vemutlich am besten aus, frisst aber wieder paar FPS und ist für die älteren Nividagens nicht immer geeignet
DLSS4 sieht etwas schlechter aus, als 4.5...ist aber schneller
FSR4 geht nur auf der 9000er Serie oder per Optiscaler, frisst damit aber wieder FPS im Vergleich zu FSR3
FSR3 ist optisch im Vergleich nicht mehr konkurrenzfähig, aber die offizielle einzige Option für alle unter der 9000er Serie außer das Spiel hat XESS, was bei Intel dann wieder schneller wäre, als bei AMD...usw. 😅

Ich stell mir das gruselig vor, hier eine sinnvolle Vergleichbarkeit herzustellen.
 
  • Gefällt mir
Reaktionen: Pro_Bro und rumpeLson
Wolfgang schrieb:
Screenshots sind für Upsampling-Vergleiche leider ziemlich ungeeignet, denn diese zeigen da einfach nicht die Wahrheit.
Eigentlich schon, nur nicht die ganze Wahrheit 😅, die sich bspw. erst bei bewegten Objekten mit feinen Strukturen zeigen, im Worst Case auch noch mit wechselnden Schatten und Lichtern und einer Tiefenstaffelung, also bewegt vor statischen Objekten.
 
Return2Burn schrieb:
Ich stell mir das gruselig vor, hier eine sinnvolle Vergleichbarkeit herzustellen.
Genau aus dem Grund werden reine FPS IMO immer irrelevanter, wenn man GPUs mit KI-Upscaling und FG betrachtet. Ja, eine gewisse Performance-Baseline ist nötig, aber darüber hinaus kann man mit Upscaling und Frame Generation (jaja ich weiß Fake Frames blablub) beinahe jedes gewünschte Latenz/Optik-Verhältnis anstreben.

Ich gehe immer mehr dazu über einfach FG bis zu den maximalen Hertz meines Displays zu aktivieren und das Upscaling so einzustellen, dass es die erreicht. Mit Dynamic MFG dürfte das noch besser werden. Wenn man sich mal an die Mauslatenz mit FG gewöhnt hat, ist die Bewegtbildflüssigkeit einfach grandios (zumindest in Singleplayerspielen).

Die Frage dürfte eher sein ob (von nVidia) noch RTX 6000 kommt oder ob 2026 das Ende von Geforce wird...
 
  • Gefällt mir
Reaktionen: Samuelz und Grestorn
@Lurtz
Ist halt immer die Frage ob DLSS/FSR/XESS/MFG2,4,6 oder FG vom Spiel unterstützt wird. FG für AMD sehe ich aktuell noch nicht in allzu vielen Spielen. Das ist ähnlich wie DLSS bei Nvidia verbreiteter.

Wir haben hier mittlerweile echt ziemlichen Wildwuchs. Von den Latzenzdiskussionen bei FG und MFG will ich erst gar nicht anfangen. Das empfindet ja auch dann jeder wieder etwas anders.

Ob wir RTX6000 oder RDNA5 zu Gesicht bekommen... ich bin noch vorsichtig optimistisch, denke aber auch, das man uns langfristig versuchen wird, ins Cloudabo zu schieben.
 
Wolfgang schrieb:
Entweder:
a) Ich will maximale Bildqualität. Also schalte ich DLAA oder FSR Native hinzu.
b) Ich will maximale Effizienz und Lautstärke: Also schalte ich trotzdem DLSS/FSR Quality hinzu. Das reduziert die Last auf die Grafikkarte bei sehr ähnlicher Bildqualität.
Du könntest auch:
c) DLSS/FSR Quality mit Downsampling kombinieren - wobei ich nicht sicher bin ob das mit FSR auch geht. Also via Upscaling die Auflösung erhöhen um dann via Downsampling zurück auf die native Monitorauflösung zu gelangen.

Vorteil: du hast nur leicht über native Renderauflösung-Anforderungen an die GPU und bekommst trotzdem die Vorteile von beiden Methoden. DS macht das Bild ultra ruhig und bügelt alle Flimmereffekte abseits von Objektflimmern durch ein/ausblenden des Objekts weg. Vor allem bei geraden Teilern. Und DLSS/FSR fügt dir mehr Details ins Bild als nativ in der Renderauflösung zu sehen wäre.

Mit nem FHD Monitor habe ich das sogar früher schon gemacht. Bei nem UHD Screen bin ich mir aber nicht 100% sicher ob der Treiber das zulässt? Das wäre ja dann "8k" via DLSS Performance als Custom Auflösung im Treiber und dann per 2x2 Downsampling auf UHD zurück am Screen.

Return2Burn schrieb:
Ich stell mir das gruselig vor, hier eine sinnvolle Vergleichbarkeit herzustellen.
Es kann in der Form nur noch eine relativ subjektive Vergleichbarkeit eben, weil die bis vor dem Upscaling Thema genutzte Basis immer die gleiche Bildqualität war. Also bei Qualität xyz wurde Leistung abc für Produkt 123 ermittelt.
Jetzt aber mit Upscaling gibt es keine vergleichbare Bildqualität mehr. Sodass für den User am Ende ein Vergleich nur noch möglich ist, wenn er sich diesem irgendwie bewusst ist. Wenn es dir nicht gefällt was da in der BQ bei rum kommt bei DLSS/FSR und Co. dann bringen alle FPS Werte nix. Das inkludiert auch Features wie Frame Generation mit wieder anderen Seiteneffekten wie eben der Latenz.
 
  • Gefällt mir
Reaktionen: Return2Burn
Wolfgang schrieb:
Screenshots sind für Upsampling-Vergleiche leider ziemlich ungeeignet, denn diese zeigen da einfach nicht die Wahrheit. Ich verstehe zwar, dass das auf Smartphones leider ein Problem ist, aber auf den kleinen Displays wird es ohnehin schwer bis unmöglich fallen, Unterschiede zu sehen.
Wie wäre es mit vergrößerten Bildausschnitten als video/gif? 😁 Aber ja, ich verstehe deine Argumentation, ich tue mich nur bei normalen videos schon schwer und hatte gehofft vergrößerte Ausschnitte würden mir da helfen.
 
Return2Burn schrieb:
Ist halt immer die Frage ob DLSS/FSR/XESS/MFG2,4,6 oder FG vom Spiel unterstützt wird. FG für AMD sehe ich aktuell noch nicht in allzu vielen Spielen. Das ist ähnlich wie DLSS bei Nvidia verbreiteter.
Das stimmt, immerhin geht mit Optiscaler fast alles. Aber das erfordert definitiv etwas Einarbeitung und Recherche.
 
Keine Ahnung, ob das technisch überhaupt möglich wäre. Allerdings fände ich mal einen Vergleich aller DLSS Generationen interessant. Also eine Szene / Spiel mit DLSS 1-4.5. Vermutlich geht es nicht, aber ich fänds spannend. Dann würde man wirklich die Unterschiede richtig sehen können.
 
Return2Burn schrieb:
Ob wir RTX6000 oder RDNA5 zu Gesicht bekommen... ich bin noch vorsichtig optimistisch, denke aber auch, das man uns langfristig versuchen wird, ins Cloudabo zu schieben.
Das ist maximal unwahrscheinlich. Warum? Weil es nur drei, nimmt man Intel raus, weil im oberen Leistungsbereich dort nix verfügbar ist, zwei Hersteller den Gamer dGPU Markt beliefern.

Wenn also NV keine Lust auf dGPUs hat, wird AMD einen relativ großen Anteil einfach so erben. Und wenn AMD das fabriziert, dann wird NV alleine den Markt beherrschen. Wenn müssten beide gleichzeitig und vor allem gleichermaßen diesen Schritt gehen, aber das sehe ich aktuell nicht, weil das "schnelle" Geld in Relation zum Aufwand weiterhin von der jeweils anderen Marktteilnehmerseite zu holen wäre. Und selbst WENN NV und AMD das fabrizieren, dann erbt Intel den Markt für sich alleine und würden mal eben einen relativ Umsatzstarken (im Vergleich zu heute) Bereich erhalten.


MMn - das wird nicht passieren.
 
fdsonne schrieb:
Wenn also NV keine Lust auf dGPUs hat, wird AMD einen relativ großen Anteil einfach so erben.
Was will AMD mit dem Marktanteil, wenn sie die Fertigung und den Speicher ebenfalls für Datacenter brauchen? Zumal AMD immer noch mit relativ geringem Aufwand die Playstation und andere Geräte wie Handhelds bedienen kann, die Partnerschaft mit Sony hat man ja schon.
 
Der Kommentarkasten ist immer eine schöne Ergänzung zum Artikel. Man trennt subjektive Aspekte gut ab und hat trotzdem die Möglichkeit sie mitzuteilen. 👍
 
  • Gefällt mir
Reaktionen: Quidproquo77, Melmoth, Dr.Death und 2 andere
@Lurtz
Ja, nutze Optiscaler auch immer mal, aber das ist definitiv keine Lösung für die breite Masse. Hoffe, das mit dem jetzt endlich erschienen SDK von AMD sich die Verbreitung auch erhöht. Aber Outofthebox ist die Unterstützung von Nvidia da einfach weiter verbreitet. Logisch bei höherem Marktanteil.

@fdsonne
Ich hoffe auch nicht, das es so kommt, sehe aber gleichzeitig in der IT, das alle Anbieter in dem Bereich in Richtung Abomodell streben. Das ist am Ende einfacher managebar und bringt regelmäßige Einnahmen. Gerade jetzt, wo die Preise so gestiegen sind, wird das auch für mehr Leute attraktiv, anstatt massive Aufpreise zu bezahlen, könnten die auch bei Nvidia ein Abo abschließen und darüber zocken.
Ich fänds sehr schade, zumal ich auch kein Fan von Abo für alles bin, aber befürchte das die Entwicklung langfristig in die Richtung geht. Denke mal, ab 2030 lässt sich das besser abschätzen.
 
Zurück
Oben