Test DLSS 4.5 vs DLSS 4 vs. FSR AI im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich

Vigilant schrieb:
Nach längerer Zeit (gut 1,5 Jahre her) spiele ich mal wieder einen Durchgang Cyberpunk 2077 (PL v2.31a). Schon wirklich "nett" mit Raytracing + Ray Reconstruction. DLSS 4.5 Quality und FG machen 100+ FPS mit WQHD möglich, bei 117 aktiven Mods.

Sobald RR aktiv ist, hast du kein 4.5 soweit ich weis.
 
  • Gefällt mir
Reaktionen: rumpeLson und KOKOtm
Irgendwann brauchts nur noch ein Strichmännchen und AI macht den Rest. :D
Das Spiel sieht dann halt je nach KI bei jedem komplett anders aus.
 
  • Gefällt mir
Reaktionen: Sly123, Brrr, iron_monkey und eine weitere Person
@Wolfgang
Mich würde mal interessieren ob die Pixeldichte eines Monitors Einfluss auf die Bildqualität hat? Ich zocke selbst auf einem HiDPI-Monitor (189dpi) und ich empfinde die Unterschiede zwischen den verschiedenen Upsampling-Algorithmen gar nicht so drastisch wie es in Tests so dargestellt wird. Ich habe mich dann gefragt, ob die Schärfenunterschiede an den Kanten aufgrund der hohe Pixeldichte viel weniger auffällig sind?

Ich kann auch die Unterschiede zwischen den verschiedenen Modi (Performance, Balanced) nicht auf den ersten Blick erkennen. Falls ihr mal Langeweile in der Redaktion habt und die entsprechende Hardware vor Ort ist, schlage ich das mal als Testidee vor.
 
BloodGod schrieb:
Lach, da kommst du zu spät, ab heute an wird jede GPU nur noch teurer und teurer werden und das dürfte bis 2027 anhalten, evtl auch noch bis 2028.
Jop, der Zug fährt täglich immer weiter weg.

Ich müsste stand heute fast 100Euro mehr zahlen für meine Hellhound 9070XT die ich ende Dez 25 gekauft hab....

Und jeden Tag wirds teurer.

Also in 2 Wochen brauch man nix mehr kaufen dann.

Macht sich auch auf Ebay bemerkbar hätte meine 6800XT doch noch etwas behalten sollen hätte ich bestimmt noch ne ecke mehr dann bekommen.
 
Brrrrr...Bei FSR muss man aber schon beide Augen im Vergleich zu machen um das besser als DLSS4 bzw. 4.5 zu finden. Das sieht bei genauerem Heranzoomen einfach so aus, als wäre FSR in niedrigster Detailstufe und DLSS 4(.5) auf Ultra herangezogen worden. Überhaupt nicht vergleichbar.
 
  • Gefällt mir
Reaktionen: aLanaMiau und Quidproquo77
Lurtz schrieb:
Was will AMD mit dem Marktanteil, wenn sie die Fertigung und den Speicher ebenfalls für Datacenter brauchen?
Das ist aber nur jetzt gerade mal der Fall. Vor nem halben Jahr gab es keinen Speicherengpass. Und in irgendwann paar Monaten oder lass es Jahre sein, wird es ihn auch nicht mehr geben.

Und auch das Datacenter Argument ist bei weitem nicht Fakt, weil es überhaupt erstmal einen Bedarf danach geben muss. Denn gibt es jetzt und ja, damit kann man jetzt (zumindest NV kann das!!) sehr hohe Gewinne und Umsätze einfahren. Aber NV ist nicht AMD und somit geht das Argument nicht auf. Ob AMD bei 1:1 Tausch der Hardware den selben Umsatz daraus ziehen kann, steht maximal in den Sternen. Software und Co. ist ein großes Thema und vor allem ein Grund pro NV in diesem Bereich. Da ändern auch ein paar Leuchtturm Projekte nichts.
Lurtz schrieb:
Zumal AMD immer noch mit relativ geringem Aufwand die Playstation und andere Geräte wie Handhelds bedienen kann, die Partnerschaft mit Sony hat man ja schon.
Das ist zu kurz gedacht. Woher kommt die Hardware für zukünftige Konsolen und Handhelds, wenn es keinen Gaming Markt mehr gibt!?
Die Featurepalette auf der Hardwareseite ist in der großen Basis 1:1 über den Profi-dGPU Bereich, den Gamerbereich und die Custom Chips für Konsolen identisch. Ja sogar die APUs im Notebook und Desktop Umfeld nutzen diese Features. Was sich AMD 2006 zur damaligen Zeit sehr sehr teuer eingekauft hat.

Es ergibt einfach keinen Sinn diesen Markt, der quasi mehr oder weniger Aufwandslos bedienbar ist (weil die Featurepalette und Architekturen muss man eh entwickeln - der Aufwand ist am Ende lediglich das einzelne Chipdesign) fallen zu lassen. Schon gar nicht in der Position von AMD, die eben vom großen Cloudkuchen weit weit weniger als NV bekommen. Aber immernoch mehr am Ende haben wie Intel - die ebenso für sich dann in diese Bresche springen könnten und zu 100% auch würden.

Leap schrieb:
@Wolfgang
Mich würde mal interessieren ob die Pixeldichte eines Monitors Einfluss auf die Bildqualität hat?
Das kommt wahrscheinlich auf die verfügbare Vergleichbarkeit an.

Pixeldichte bringt dir allein keine Bildqualität abseits der möglichen "Schärfe". Auf der anderen Seite kann aber eine niedrigere Renderauflösung beim Upscaling tendentiell zu einer höheren Unschärfe führen (auf dem selben Screen) was im Umkehrschluss in einem fairen 1:1 Vergleich zu einem Screen mit weniger Pixeldichte durchaus visuell sichtbar sein könnte. Sprich das kann durchaus kompensieren. Nur wer hat den Vergleich Zuhause? Das wird wie so oft wahrscheinlich gar nicht auffallen und am Ende muss das Bild gefallen. Nicht ob es mit nem anderen Monitor noch etwas schärfer oder weniger scharf sein könnte.
 
Lurtz schrieb:
Was will AMD mit dem Marktanteil, wenn sie die Fertigung und den Speicher ebenfalls für Datacenter brauchen? Zumal AMD immer noch mit relativ geringem Aufwand die Playstation und andere Geräte wie Handhelds bedienen kann, die Partnerschaft mit Sony hat man ja schon.

Ganz einfach, so lange es neue Konsolengens gibt, wird es auch neue PC Hardware geben. Sterben die Konsolen und es gibt nur noch Abspielboxen für die Cloud, war es das auch für natives PC Gaming. Kein Marktteilnehmer kann sich erlauben, einen der Zweige wegbrechen zu lassen. Noch dazu wird nicht jeder zu einem Cloudgaming wechseln und wenn, dann nur wenn es generell keinen Markt mehr gibt für dedizierte Hardware, weder Konsolen noch PC.

Noch dazu kassieren AMD und Nv fürstliche Margen für ihre GPU Hardware mit relativ überschaubarem Aufwand. Mag sein dass der Anteil sehr klein ist im Vergleich zu AI. Es geht aber ausschließlich darum, ob der Zweig einen positiven Deckungsbeitrag bringt. Tut er das, gibt es auch weiter Hardware.
 
Huch, ich dachte eigentlich, FSR hätte zu DLSS aufgeschlossen? Die gezeigten Ausschnitte im Test sehen allerdings wirklich nicht ansprechend aus.

DLSS 4.5 wirkt dagegen stellenweise schon fast überschärft - 4.0 gefällt mir insgesamt am besten. Spätestens wenn man den geringeren Leistungsbedarf von 4.0 und die Bugs von 4.5 berücksichtigt (z.B. komplett schwarzer Screen in Enshrouded), ist 4.0 für mich aktuell die bessere Wahl.

Fast noch erschreckender als die FSR-AI-Qualität finde ich allerdings die Posts mancher Nutzer mit teils tausenden Kommentaren. Solch haarsträubende Mutmaßungen, Fehlinformationen und heraufbeschworenes Voodoo findet man nicht einmal in HiFi-Foren. Ich glaube, dem Forum würden wöchentliche Upscaling-Posts deutlich besser tun als dieses permanente Kabelbrand-Fearmongering.
 
  • Gefällt mir
Reaktionen: rafiibs und BlueBringer
fdsonne schrieb:
Wenn also NV keine Lust auf dGPUs hat, wird AMD einen relativ großen Anteil einfach so erben
...um dann GPUs mit noch mehr "Verlust" zu verkaufen, statt das gleiche Produkt deutlich gewinnbringender im Datacenter-Bereich zu vermarkten?
 
Absolut hilfreicher Top Artikel in der bisher besten Ausführung im Vergleich zu anderen Webseiten. Die Videoeinbindung ist genial! Danke und weiter so!
PS. Videovergleiche in DLSS 4.5 Quality vs. DLSS 4.5 Performance und Balanced wären noch super, da Quality doch viel Leistung kostet.
 
  • Gefällt mir
Reaktionen: BeowulfAgate
aLanaMiau schrieb:
Huch, ich dachte eigentlich, FSR hätte zu DLSS aufgeschlossen? Die gezeigten Ausschnitte im Test sehen allerdings wirklich nicht ansprechend aus.

Ich frage mich auch immer, ob manche so einen Vergleich nur am Handy schauen, oder es auch mal am großen Monitor anschauen. Und dann versuchen diese Menschen oft noch Dich vom Gegenteil zu überzeugen. Nvidia hat schon Anspruch darauf sich die Geforce teuer bezahlen zu lassen, AMD hinkt da mindestens eine Generation hinterher.
 
  • Gefällt mir
Reaktionen: Samuelz
ChatGehPeeTee schrieb:
Sobald RR aktiv ist, hast du kein 4.5 soweit ich weis.
Da bin ich mir nicht so sicher. Das Preset bleibt aktuell bei D. Das ist klar. Bei RR übernimmt die nvngx_dlssd.dll das Korrigieren und Ordnen der Lichtstrahlen, bevor der Upscaler nvngx_dlss.dll das Upscaling durchführt. Mit Frame Generation folgt dann noch die nvngx_dlssg.dll.

*.dll = Werkzeug/Werkbank
Presets = Anweisungen an die Werkzeuge/Werkbank

Alle *.dll haben ein Update auf 310.5.0.0 erhalten. Deswegen gehe ich auch davon aus, dass sich trotz unveränderten Preset-Buchstaben auch etwas geändert hat oder zumindest geändert haben könnte. Nur weil der Buchstabe des aktivierten Presets identisch ist, heißt es ja nicht, dass sich bestimmte Parameter des Presets bezogen auf die entsprechenden dll nicht geändert haben.

Die Presets ordnen sich ja nur der jeweiligen Spieleinstellung zu.

So ist jedenfalls mein bisheriges Verständnis. Sollte das nicht richtig sein, gerne (fundiert und idealerweise mit Quellenverweis) berichtigen.
 
@Vigilant
Nein, da hat sich nichts geändert. Bei RR führt nvngx_dlss.dll auch nicht das Upscaling durch, das ist ein kombiniertes Modell und RR überschreibt SR komplett.

Die DLL-Versionen sagen erstmal gar nicht viel aus, da stecken abseits der Presets meist nur Bugfixes/Features am Drumherum drin. nVidia scheint die im SDK automatisch zu aktualisieren, vermutlich damit die ganze "Suite" immer auf einem Versionsstand ist.

Übrigens würde ich bei RR über den Inspector Preset E forcieren, das ist besser als D.
 
  • Gefällt mir
Reaktionen: Samuelz
Wieso genau wird Preset M verwendet und nicht "latest"? Gemäss Nvidia soll man doch "lastest" auswählen in der nvidia App? Dann stellt man ingame einfach auf Performance.

Dieses ganze Ding verwirrt mich
 
@Wolfgang

Ich benutze in Warthunder DLSS mit Native als Kantenglättung, weil die anderen nichts taugen oder bei SSAA irre viel Leistung fressen - ändert sich für mich dann irgendwas durch den Wechsel auf DLSS 4.5?
 
@Lurtz
O.k. nicht ganz einfach das zu durchdringen.

Und stimmt. Preset E gibt es ja schon länger für RR, seit 310.2 wenn ich das richtig erinnere.
 
Knecht_Ruprecht schrieb:
Jetzt müssten nur noch günstige Grafikkarten verfügbar sein, damit man das Zeugs auch aktivieren kann.
Selbst mit einer uralten RTX 2000 laufen die Features doch …
Ergänzung ()

Sebaz360 schrieb:
Haben die Leute die FSR Upscaling AI ausgewählt haben was an den Augen?

Da sieht doch total unscharf aus?
DLSS 4 sieht dagegen schon besser aus, und 4.5 toppt dies nochmal um längen
Das sind dieselben Leute, bei denen der 12V-2x6-Stecker laut Umfrage „gebrannt“ hat - obwohl sie keine solche Grafikkarte besitzen …
 
Return2Burn schrieb:
@Wolfgang
Wie wollt ihr das eigentlich zukünftig mit Benchmarks handhaben?
DLSS4.5 sieht vemutlich am besten aus, frisst aber wieder paar FPS und ist für die älteren Nividagens nicht immer geeignet
DLSS4 sieht etwas schlechter aus, als 4.5...ist aber schneller
FSR4 geht nur auf der 9000er Serie oder per Optiscaler, frisst damit aber wieder FPS im Vergleich zu FSR3
FSR3 ist optisch im Vergleich nicht mehr konkurrenzfähig, aber die offizielle einzige Option für alle unter der 9000er Serie außer das Spiel hat XESS, was bei Intel dann wieder schneller wäre, als bei AMD...usw. 😅

Ich stell mir das gruselig vor, hier eine sinnvolle Vergleichbarkeit herzustellen.
Ja, DLSS 4.5 hat das ohnehin schon schwierige Thema nicht einfacher gemacht.
Im Moment tendiere ich dazu, DLSS 4.5 erst einmal in Benchmarks zu ignorieren - zumal Nvidia das im Moment durch "Recommanded" selbst ja auch ein wenig tut.

Sprich, es wird erstmal bei DLSS Preset K gegen FSR Upscaling AI bleiben.
In Spiele-Benchmarktests werden Karten, die das nicht können, dann mit einem höheren Modus XeSS/TSR/FSR 3.1 arbeiten müssen, in Grafikkarten-Tests dagegen mit ihrem dazugehörigen (gleiche Renderauflösung) Modus von FSR und XeSS. Gleichzeitig wird es bei den Karten in den Ratings aber einen Hinweis darauf geben, dass die Bildqualität schlechter ist.


Vigilant schrieb:
Eigentlich schon, nur nicht die ganze Wahrheit 😅, die sich bspw. erst bei bewegten Objekten mit feinen Strukturen zeigen, im Worst Case auch noch mit wechselnden Schatten und Lichtern und einer Tiefenstaffelung, also bewegt vor statischen Objekten.
Screenshots zeigen bei Upsampling einen kleinen Teil der Wahrheit. Das Bild in Bewegung kann einfach sehr anders aussehen.
Aerobraking schrieb:
Wie wäre es mit vergrößerten Bildausschnitten als video/gif? 😁 Aber ja, ich verstehe deine Argumentation, ich tue mich nur bei normalen videos schon schwer und hatte gehofft vergrößerte Ausschnitte würden mir da helfen.
Das kann doch auch der ICAT-Player bei uns - das ist ja eine der Gründe, warum der so genial ist. Du kannst in dem Player zoomen wie du lustig bist :)
ChatGehPeeTee schrieb:
Sobald RR aktiv ist, hast du kein 4.5 soweit ich weis.
DLSS Ray Reconstruction schaltet Super Resolution und damit Preset K/M völlig ab und nutzt etwas gänzlich anderes. Darin unterscheidet sich auch DLSS RR und FSR Ray Regeneration. DLSS SR ist Stand jetzt noch "DLSS 4". Aber der Vergleich hinkt da wie gesagt, das hat absolut nichts mit Preset K zu tun.
Leap schrieb:
@Wolfgang
Mich würde mal interessieren ob die Pixeldichte eines Monitors Einfluss auf die Bildqualität hat? Ich zocke selbst auf einem HiDPI-Monitor (189dpi) und ich empfinde die Unterschiede zwischen den verschiedenen Upsampling-Algorithmen gar nicht so drastisch wie es in Tests so dargestellt wird. Ich habe mich dann gefragt, ob die Schärfenunterschiede an den Kanten aufgrund der hohe Pixeldichte viel weniger auffällig sind?

Ich kann auch die Unterschiede zwischen den verschiedenen Modi (Performance, Balanced) nicht auf den ersten Blick erkennen. Falls ihr mal Langeweile in der Redaktion habt und die entsprechende Hardware vor Ort ist, schlage ich das mal als Testidee vor.
PPI hat natürlich immer einen Einfluss auf die Bildqualität. Das bedeutet aber nicht, dass deswegen die Unterschiede der Upsampler anders wäre, diese bleiben in der Tendenz und generell in den Eigenschaften gleich. Manche Probleme sind bei weniger DPI besser zu sehen, bleiben aber auch bei mehr DPI bestehen. Du bist da vermutlich einfach nur unempfindlich für.
john.smiles schrieb:
@Wolfgang

Ich benutze in Warthunder DLSS mit Native als Kantenglättung, weil die anderen nichts taugen oder bei SSAA irre viel Leistung fressen - ändert sich für mich dann irgendwas durch den Wechsel auf DLSS 4.5?
Wenn du DLSS nur im Spiel einstellst, bleibt für dich alles gleich - und du nutzt auch weiterhin DLSS 4 (oder was genau War Thunder nutzt, ich weiß es nicht). Wenn du War Thunder dagegen in der Nvidia App bezüglich DLSS konfiguriert hast, kommt es auf deine Einstellung an.
 
  • Gefällt mir
Reaktionen: schneeland, Redirion, Vigilant und 2 andere
Fliffi schrieb:
Du kriegst bei ebay gebraucht für unter 300€ eine RTX 3080. Die kann auf jedenfall DLSS4.5
Und diese unterstützt dann aber kein FP8, ich zitiere aus dem Computerbase-Artikel: Da das Transformer-Modell in zweiter wie in erster Generation FP8 nutzt, sollen Blackwell (RTX 5000) und Lovelace (RTX 4000) die Rechenlast deutlich besser stemmen können als die älteren Generationen Turing (RTX 2000) und Ampere (RTX 3000), die nur FP16 beherrschen.

Sprich, auf 2000 und 3000 RTX Karten ist der Performance-Hit weitaus größer, je nach Spiel.
 
  • Gefällt mir
Reaktionen: No_Toxic_Gamer
Zurück
Oben