Test DLSS 4.5 vs DLSS 4 vs. FSR AI im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich

Enyo79 schrieb:
So wie die bei NV weil manche Kunden einfach jeden Preis bezahlen sei er auch noch so absurd. Ist halt so.
Und was hat das mit Marketingverarsche zu tun? Gibt es denn etwa auf beiden Seiten keine vergleichsweise günstige Karten zu kaufen? Soll man Kunden die mehr Geld auszugeben bereit sind, um entsprechend mehr Leistung zu bekommen, nicht bedienen?

Verarscht werden Kunden die ich mit einer Zahl locke, die dem Konkurrenzprodukt möglichst ähnlich ist und Features anpreise die möglichst gleich benannt sind, obwohl sie nicht die gleiche Leistung liefern und behaupte dann, man würde bei mir das gleiche zum günstigeren Preis bekommen.

Wenn man es dann auch noch schafft, wie hier in der Umfrage gezeigt, dass sich die Kunden selbst und andere belügen, kann man es eigentlich nicht mehr besser machen. Dann braucht man technisch nichts mehr zu tun, man verkauft nur immer den gleichen Mist mit einem neuen Namen, so richtig hinschauen tun die "Fans" sowieso nicht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ralelelelel
janeeisklar schrieb:
Die Videos sind bei den Radeons deutlich unschärfer als „live im Spiel“. Wer das nicht sieht, ist einfach blind.
Was meinst Du? Dass die Videos fake seien? Nochmal: Die sind im "Performance" -Modus aufgenommen, das sagt der Artikel auch deutlich. Das ist der Grund dafür, dass sie besonders bei FSR – aber auch bei DLSS manchmal – ziemlich unscharf wirken. Kaum jemand wird normal in Performance spielen, wenn er Wert auf eine gute Bilddarstellung legt.
 
  • Gefällt mir
Reaktionen: Czk666
@Grestorn Noch einmal: Die Videos sind bei der Radeon schlicht unschärfer als „Live in Game“, auch im „Performance“-Modus. Hat ComputerBase irgendwo angegeben, wie die Videos erstellt wurden?

-------
Ungeachtet dessen, und nur als Beispiel, würde wohl kein Radeon-User den Performance-Modus nutzen, dabei aber RIS2 und/oder den dynamischen Kontrast nicht aktivieren.
 
  • Gefällt mir
Reaktionen: Czk666 und Andre83hro
DLSS 4.5 ist das Beste was meiner 4080S seit Kauf passiert ist!
 
  • Gefällt mir
Reaktionen: Tr8or und Divad
Hier mal spaßeshalber ein Vergleich zur FSR4 INT8 Version, die man via Optiscaler auch auf Nvidia nutzen kann.
Die INT8 Version ist gemäß diesem Video hier zumindest ein kleines bisschen weniger scharf, aber alles in allem sind sie schon sehr identisch. In dem Video sehe ich nur minimalste Unterschiede:

Aber wenn man dann mit DLSS4.5 vergleicht sind das schon wirklich Welten (alle Bilder sind Ausschnitte aus einem 4K bild, ohne Zoom. Ich hab sie nur alle leicht aufgehellt, damit man mehr erkennt)

Schaut euch die Bilder am besten ohne zoom an. Wer z.B. in Windows 125% zoom für den Desktop eingestellt hat müsste im browser die Bilder z.B. auf 80% zoomen, damit sie 1:1 und ohne Vergrößerung dargestellt werden.

TAA Nativ
TAA.png



DLSS 3 (CNN) Preset E Performance Modus
E.png



FSR 4 INT8 Performance Modus
FSR.png



DLSS 4.5 (Transformer) Preset M Performance Modus
M.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77, Creekground, Tr8or und eine weitere Person
janeeisklar schrieb:
@Grestorn Noch einmal: Die Videos sind bei der Radeon schlicht unschärfer als „Live in Game“, auch im „Performance“-Modus. Hat ComputerBase irgendwo angegeben, wie die Videos erstellt wurden?
Damit behauptest Du, dass @Wolfgang absichtlich Leute in die Irre führt. Das ist eine recht krasse Behauptung, die Du schon belegen solltest.

Vielleicht kann er ja den Spielstand teilen, damit Du die Szene selbst nachstellen kannst, um Deine Behauptung zu belegen.
 
sethdiabolos schrieb:
Hier ein Video von Bang4Buck PCGamer, der auch oft hier oder auf PCGH herangezogen wurde. Er macht gute Tests und ist schon ewig in dem Bereich tätig. Das ist ein vergleich im Ultra Performance-Modus, vielleicht schaut es in anderen Modi wieder anders aus. Alles in allem scheint es aber so, als wäre eine 9070XT imo eher auf einem Level zwischen RTX 5060 und 5070, wenn man gleiche Bildqualität bei gleicher Performance möchte.
Ich kenne die Videos und ich halte viele von den diskutierten Problemen der Upsampler ehrlich gesagt für ein Wahrnehmungsproblem. Das soll nicht heißen, dass es die Unterschiede nicht gibt und FSR4 in vielen Belangen zurückliegt, aber wenn ich spiele, sehe ich von diesen Problemen bis auf wenige Ausnahmen nichts während des Spielens. Das ist wie diese Wahrnehmungstests, wo ein Gorilla durchs Bild läuft. Erst wenn man ihn sucht, findet man ihn auch. Ansonsten habe ich während des Spielens keinen Unterschied zwischen meiner 9070 und der 5070Ti bemerkt.

Zu den Bedingungen im Video muss man eben auch sagen, dass eine 9070XT mit Ultra Performance irgendwie auch kein realistisches Szenario ist. BF6, GoW in Ultra Performance auf einer aktuellen Grafikkarte? Bei einer 5060 8GB passiert dir das, aber nicht oberhalb davon.
 
  • Gefällt mir
Reaktionen: Czk666
janeeisklar schrieb:
Dann hatte ich noch die Frage:
Die Videos wurden, wie im Artikel beschrieben, mit FCAT erstellt, also mittels einer externen Capture Karte in einem 2. PC mit der die Streams aufgezeichnet, synchronisiert und die Darstellung so aufbereitet werden, wie Du sie dann im Artikel siehst.

Und die Behauptung, dass das Bild "in echt" besser aussieht als man hier im Video sieht, ist und bleibt sehr gewagt, speziell wenn Du keinerlei Belege dafür hast.

Da nach Deiner Aussage nur FSR betroffen ist, unterstellst Du hier durchaus einen Bias.
 
  • Gefällt mir
Reaktionen: John_Wick89, Quidproquo77, ralelelelel und eine weitere Person
Grestorn schrieb:
Und die Behauptung, dass das Bild "in echt" besser aussieht als man hier im Video sieht, ist und bleibt sehr gewagt, speziell wenn Du keinerlei Belege dafür hast.
Wer eines oder mehrere der Games besitzt, kann ja selbst nachvollziehen, dass die Videos nicht das wiedergeben, was man auf dem Monitor sieht. Die Videos sind halt stark komprimiert. Die adaptive Quantisierung sorgt dabei dafür, dass in kontrastarmen Bereichen mehr Details verschwinden als in kontrastreichen. Da das DLSS Material bei der gleichen Schärfeeinstellung eine höhere Grundschärfe hat, bleiben durch den höheren lokalen Kontrast einfach mehr Details erhalten. Die Kompression sorgt also dafür, dass der Unterschied zwischen DLSS und FSR unverhältnismäßig groß ausfällt. Für eine realistische Repräsentation der verschiedenen Verfahren bräuchte man also unkomprimiertes Material. An der grundsätzlichen Aussage des Tests würde das aber nichts ändern.
 
Nolag schrieb:
Wer eines oder mehrere der Games besitzt, kann ja selbst nachvollziehen, dass die Videos nicht das wiedergeben, was man auf dem Monitor sieht.
Oder es ist einfach ein subjektives Empfinden.
 
Nolag schrieb:
Wer eines oder mehrere der Games besitzt, kann ja selbst nachvollziehen, dass die Videos nicht das wiedergeben, was man auf dem Monitor sieht. Die Videos sind halt stark komprimiert. Die adaptive Quantisierung sorgt dabei dafür, dass in kontrastarmen Bereichen mehr Details verschwinden als in kontrastreichen. Da das DLSS Material bei der gleichen Schärfeeinstellung eine höhere Grundschärfe hat, bleiben durch den höheren lokalen Kontrast einfach mehr Details erhalten. Die Kompression sorgt also dafür, dass der Unterschied zwischen DLSS und FSR unverhältnismäßig groß ausfällt. Für eine realistische Repräsentation der verschiedenen Verfahren bräuchte man also unkomprimiertes Material. An der grundsätzlichen Aussage des Tests würde das aber nichts ändern.

Wenn man eine konstante Bitrate wählt und keine Voreinstellung nutzt die nur versucht eine bestimmte qualität zu erreichen (CRF) dann sollte das doch überhaupt keine Rolle spielen.
 
  • Gefällt mir
Reaktionen: Quidproquo77
sethdiabolos schrieb:
VRAM kann man nur nicht 1:1 vergleichen. Es gibt Spiele, wo der VRAM bei AMD deutlich mehr befüllt wird (teils 3,5GB) und dann auch noch der normale RAM auch mehr zur Kasse gebeten wird. In Stalker 2 hat man eine zusätzliche RAM-Last, wo bei AMD einfach mal bis zu 8GB mehr RAM benötigt wird. Man muss sich von dem Gedanken verabschieden, dass VRAM und RAM bei Nvidia und AMD gleich funktionieren. da gibt es teils heftige Unterschiede je nach Spiel. Hier mal ein Screen aus Stalker mit


~ 4GB mehr RAM-Last
~90W mehr Leistungsaufnahme
fast gleichen Frames
schlechterer Bildqualität bei AMD

Anhang anzeigen 1700295

Man kann da natürlich wieder sagen, dass es ein Video ist und kein Test eines Magazins, aber man kann sich mehrere Videos verschiedener Tester anschauen und es verhält sich immer gleich in diesem Game und teils auch in anderen.
Es gibt doch schon Tests von Magazinen und der satromverbruach ist fast der selbe bei auslastung.
Irgendwelche videos von privat als argument sind die schwächsten Argumente, für mich sogar das genaue Gegenteil eines Arguments, vor allem wenn man die echten Ergebnisse kennt.

Ich wette dieser "TEST" ist genau so angelegt das es mies für die 9070 aussieht.
Auf jeden Fall kann ich einen "Test" anlegen der das Gegenteil aussagt.



https://www.computerbase.de/artikel/grafikkarten/amd-radeon-rx-9070-xt-rx-9070-test.91578/seite-9

https://www.pcgameshardware.de/Rade...als/GPU-Duell-vs-Geforce-RTX-5070-Ti-1471688/

PS: Eigentlich wollte ich mich gar nicht mehr in solche sinnlosen Vergleiche ziehen lassen, aber das hier ist so dermaßen gestellt das ich nicht anders kann.
 
Boimler schrieb:
Ansonsten habe ich während des Spielens keinen Unterschied zwischen meiner 9070 und der 5070Ti bemerkt.
Gut! Dann kannst du einfach mit der Skalierungsstufe noch weiter runter gehen und kriegst mit einer der Karten mehr FPS, die andere ist hingegen schon "am Ende". Es ging in diesem Vergleich aber nicht darum, was man selbst noch am erträglichsten empfindet, sondern welches Verfahren in einer namentlich vergleichbaren Qualitätsstufe das beste Ergebnis liefert, weil auf einer solchen Stufe nun mal FPS Tests gemacht werden.

Es spielt auch "niemand" mehr mit 720p, trotzdem ist das bei CPU Tests die verwendete Auflösung. Man möchte schließlich sehen was die CPU leistet und wie viel Reserven sie für herausfördernde Spiele hat. Wenn dir danach ist, kannst du auch alle Spiele auf "low" spielen, nur kannst du dann nicht behaupten deine GPU wäre schneller, als die von jemanden der das gleiche Spiel auf "high" spielt und eine niedrigere Framerate bekommt. Du und er, sehen schlichtweg ein völlig anderes Ergebnis.

Es geht hier um visuelle Vergleichbarkeit und wenn FSR hier nicht aufholen kann, wird es für die RDNA Karten bald so aussehen wie aktuell für RDNA3.
1769346981716.png

https://www.computerbase.de/artikel/gaming/the-outer-worlds-2-benchmark-test.94713/

Wieso sollte Wolfgang in Zukunft FSR4 gegen DLSS4.5 in der gleichen Skalierungsstufe testen, wenn die Bildausgabe der RDNA4 Karten kein ähnliches Ergebnis liefert? Dann werden die GeForce Karten halt in Ultra Performance getestet und "plötzlich" bekommen sie 10-15% Vorsprung, was völlig berechtigt wäre, da die Bezeichnung nichtssagend ist, sondern nur was am Ende herauskommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: usmave
Grestorn schrieb:
Oder es ist einfach ein subjektives Empfinden.
Das ist nicht subjektiv. Wir reden hier über stark komprimierte Videos bei denen die Kompression ganze Flächen "glattgebügelt" hat. Du besitzt keines der getesteten Games?
Hier ist ein Beispiel aus Mafia:
Mafio_TOC_Video.jpg

Mafia_TOC_Screenshot.png

Die Kompression hat dafür gesorgt, dass im oberen Bild sämtliche kontrastarmen Details in den Haaren und besonders im oberen Teil des Hemdes verlorengegangen sind. Das untere Bild zeigt nicht die gleiche Szene, aber es sollte trotzdem klar werden, dass ein komprimiertes Video eben nicht alle Details des ursprünglichen Bildes enthält.
 
sethdiabolos schrieb:
VRAM kann man nur nicht 1:1 vergleichen. Es gibt Spiele, wo der VRAM bei AMD deutlich mehr befüllt wird (teils 3,5GB) und dann auch noch der normale RAM auch mehr zur Kasse gebeten wird. In Stalker 2 hat man eine zusätzliche RAM-Last, wo bei AMD einfach mal bis zu 8GB mehr RAM benötigt wird. Man muss sich von dem Gedanken verabschieden, dass VRAM und RAM bei Nvidia und AMD gleich funktionieren. da gibt es teils heftige Unterschiede je nach Spiel. Hier mal ein Screen aus Stalker mit


~ 4GB mehr RAM-Last
~90W mehr Leistungsaufnahme
fast gleichen Frames
schlechterer Bildqualität bei AMD

Anhang anzeigen 1700295

Man kann da natürlich wieder sagen, dass es ein Video ist und kein Test eines Magazins, aber man kann sich mehrere Videos verschiedener Tester anschauen und es verhält sich immer gleich in diesem Game und teils auch in anderen.


Ich hab mir gerade mal das ganze Video angesehen. Das ist ja wahnsinn, wie astronomisch der Unterschied bei der Bildqualität ist.
Und dabei ist das nur DLSS4.0 und noch nichtmal 4.5. Uff... :freak:

Und es ist ja nicht nur Bildschärfe und Details. FSR flimmert bei disocclusion in den Baumkornen auch teilweise sehr extrem.
 
xexex schrieb:
Es ging in diesem Vergleich aber nicht darum, was man selbst noch am erträglichsten empfindet,
Ich bin zufrieden mit dem, was ich habe und wenn DLSS besser aussieht, darf das gerne so sein. Nur bitte schreib mir nicht vor, was erträglich oder unerträglich ist, wenn du weder einen Blick in die Software werfen möchtest, noch anscheinend einen selbst gemachten Vergleich zwischen FSR und DLSS angestellt hast. Es ist eines sich auf Videos und Screenshots zu berufen und ein anderes ein Spiel zu spielen und sich zu fragen, ob einen jetzt das Upsampling stört oder nicht.
 
  • Gefällt mir
Reaktionen: Czk666
Mimir schrieb:
Wenn man eine konstante Bitrate wählt und keine Voreinstellung nutzt die nur versucht eine bestimmte qualität zu erreichen (CRF) dann sollte das doch überhaupt keine Rolle spielen.
Darauf kann man sich halt nicht verlassen. Wenn FSR z.B. nicht so temporal stabil ist wie DLSS, dann wird die Bitrate unter Umständen für die Differenz zwischen den Frames verwendet und steht dann nicht mehr für eine bessere Quantisierung zur Verfügung.
 
Nolag schrieb:
Das ist nicht subjektiv. Wir reden hier über stark komprimierte Videos bei denen die Kompression ganze Flächen
Ein cooler Algorithmus, der erkennt, dass das Bild von AMD gerendert wurde und nur dann alles viel schlechter macht.

Was NVidia dafür wohl bezahlt hat...
 
  • Gefällt mir
Reaktionen: Taxxor und Quidproquo77
Mimir schrieb:
Die Umfrage hätte man sich sparen können. :freak:
Ich meine man kann ja noch drüber diskutieren, ob einem das Gesamtergebnis mit FSR4 besser gefällt, weil die vom Spiel angewendeten Scharfzeichner bei DLSS4.5 schnell dazu führen dass das Bild überschärft aussieht. DLSS4.5 nutzt zwar selbst keinen Scharfzeichner, wirkt aber durch die geringere temporale Unschärfe schnell viel zu scharf, wenn man ingame die Scharfzeichner nicht deaktiviert - was häufig nicht oder nur per config file oder mods möglich ist. FSR4 ist halt unschärfer und wirkt mit scharfzeichner dann halbwegs "normal". Wobei ein scharfzeichner immer die Bildqualität reduziert, daher so oder so suboptimal.

Aber bei Outer Worlds ist das ergebnis doch mehr als eindeutig. DLSS4 und FSR4 rauschen und schimmern wie wild vor sich hin, während DLSS4.5 das alles beseitigt. Trotzdem stimmt über 1/3 für FSR4. Das ist mal wieder comedy pur. Spätestens da merkt man, dass objektivität hier keinerlei Rolle spielt. Auch wenn das zugegen schwierig ist, da die Bildcharakteristik der Algorithmen stark unterschiedlich ist und eben die viel zu starken Scharfzeichner der meisten Spiele das Ergebnis stark verfälschen.

Aber gut, es ist was es ist...
Erst mal Respekt das du das mit der Überschärfe auch siehst.
Nun zu deinen Punkten mit Outer World.
Ich habe mir das noch mal angesehen und mir gefällt der Gesammteindruck bei FSR am besten.
Ich sehe kein rauschen oder Schimmern jedenfalls nicht im vergelich zu den anderen bzw mehr als bei den anderen.
Ganz erhlich und ich habe mich soghar noch mal überzeugt das ich mich auch nicht vertran habe mit der Zuordnung.
Meine Gründe sind Bildruhe, Aliasing und von ein von mit empfundenes Stottern bei DLSS, mindestens in Bildbereichen (oben rechts vorne links).
Es kann auch sehr wohl an dem Monitor liegen auf dem wir vergelichen.
Ich werde mir das noch mal am Handy ansehen.

PS: Habe es noch mal verglichen, die Schatten sind krümelig bei DLSS und das Aliasing kann man am besten hinten an der Wand am Vierkantrohr sehen. das ist zwar bei beiden vorhanden, aber bei DLSS ist es stärker ausgerpägt.
Die schweißnaht (Mitte des Gehäuses, Bauch) sieht bei FSR echt aus, in der Mitte wo das Material nach innen geht wird es heller und hat tiefe bei DLSS ist es ein einfarbiger Strich.
Aber man kann wohl mit beiden leben obwohl ich DLSS eher nichnt nutzen würde da mich die überschräfe wirklich stört und das bild auch mich unruhig und unnatürlich wirken lässt, zu viele Krümel...
 
Zuletzt bearbeitet:
Zurück
Oben