Test FSR Upscaling 4.1 im Test: Die Analyse in 7 Spielen im Vergleich zu FSR 4.0 & DLSS 4.5

Caramon2 schrieb:
sondern nur die Optik für den eigentlichen Spielspaß unwesentlich verbessert?
Man mag es kaum glauben, aber auch die Optik ist für einen gewissen Spielspaß verantwortlich.

Natürlich kann man auch die alten Spiele wieder zocken (und ich selbst habe wirklich mit Pong/Asteroids/etc.) Ende der 70er schon angefangen), aber trotzdem mag ich eine möglichst realitätsnahe Immersion. Das gehört für mich dazu.

Hatte ich früher schon bei Doom, Ultima Underworld, etc. das Gefühl, das ist alles fast schon fotorealistisch, bluten mir heute die Augen, wenn ich das noch mal ertragen müsste.

Ich lasse lieber die alte Zeit in guter Erinnerung und beschäftige mich aktuell mit einigen moderneren Spielen. Und ergöze mich dabei auch noch an moderner Grafik. Und ich nehme natürlich mit was geht, warum sollte ich mir gezielt die schlechtere Technik antun?
 
No_Toxic_Gamer schrieb:
Die Treiberüberschreibung in BF6 funktioniert dort seit dem letzten Update des Spiels nicht mehr. Was du slehst ist also FSR 3.1 derzeit.
Ernsthaft ?!
Ich habe mich schon gewundert warum das so schlecht aussieht !!
Jetzt wird n Schuh draus.
Hoffe die fixen das ganz schnell !!!
Danke für die Info !!
 
danyundsahne schrieb:
Und wie Wolfgang in seinem Kommentar schreibt, dass auch der Bildschirm ein Faktor ist und man mit einem 4K OLED die Unterschiede besser erkennen kann, dann frage ich mich wie viele Menschen a) so einen Bildschirm überhaupt haben und b) dass ohne so einen Bildschirm wohl wieder mal in der Praxis kaum etwas von dieser besseren Upscaler Qualität übrig bleibt...außer THeorie, wie hier im Video-/Zoomvergleich. Das macht niemand am heimischen Bildschirm beim Zocken.
Dann lohnt es sich ja fast schon wieder, sich eine alte 800x600er 15" Röhre hinzustellen. Da sieht man dann wirklich überhaupt keinen Unterschied mehr - ob GTX 5090 oder Radeon 590, egal, sieht alles gleich kacke aus.
 
Das muss AMD jetzt fixen mit nem neuen Treiber oder muss Dice was tun?
 
No_Toxic_Gamer schrieb:
Jupp. Ist auch bekannt und steht in den release notes/known issues vom 26.3.1
Muss AMD das jetzt fixen oder Dice ?
 
Benni82 schrieb:
Das muss AMD jetzt fixen mit nem neuen Treiber oder muss Dice was tun?
Ka. Laut Reddit und Discord BF6 ist es ein Game Bug. Eventuell ist es ein Ding was von 2x Seiten fixen muss. Es ist auch so das DLSS Swapper die FSR dll nicht mehr erkennt in BF6 auch, was vorher der Fall war. Also müssen sie unabsichtlich oder absichtlich etwas an der Implementierung gerändert haben die von der AMD empfohlenen Variante abweicht.
 
  • Gefällt mir
Reaktionen: .fF und Benni82
Loopman schrieb:
Dann lohnt es sich ja fast schon wieder, sich eine alte 800x600er 15" Röhre hinzustellen. Da sieht man dann wirklich überhaupt keinen Unterschied mehr - ob GTX 5090 oder Radeon 590, egal, sieht alles gleich kacke aus.
Eben, ging ja früher auch, dass alle Spaß am Zocken hatten und sich nicht wegen piekfeiner Details, die man mit Zoom und Lupe suchen muss, herumgestritten hat ;)
Die High End Community in den meisten Foren ist nur zu sehr verwöhnt ;)
 
  • Gefällt mir
Reaktionen: Alphanerd und Andre83hro
Auf meinen 2560 x 1440 Pixeln bei 32" sind eigentlich nur Unterschiede beim heranzoomen und genauen Vergleichen auszumachen. Beim Spielen (ich spiele von den Spielen nur ANNO) kann ich mir nicht vorstellen, dass man hier Unterschiede bemerkt. Ich bin mit meiner 9060XT und der Software zufrieden.
Danke für den Test, denn eure Test halten mich auf dem Laufenden.
 
SavageSkull schrieb:
Mein 34" 21:9 mit 3440x1440 ist schon grenzwertig, was das Blickfeld betrifft und die Pixeldichte ist bei meinem Abstand bereits fein genug.

Bevor ich vor ca. 5 Jahren den PC wieder zum Spielen benutzt habe, hatte ich einen 4K-Schirm mit 27" im Einsatz. Der konnte aber nur 60Hz, kein VRR und kein HDR. Also habe ich mir dann einen ordentlichen 21:9-Monitor mit MiniLED und 165HZ zugelegt, Auflösung besagte 3440x1440.

Ich trauere der 4K-Auflösung am Desktop IMMER NOCH nach!

Das ist einer der Gründe, warum ich mir zusätzlich noch einen "Konsolen-PC" auf Linux-Basis fürs Wohnzimmer gebastelt habe. Denn der hängt am 4K-TV. Is einfach goiler!11!!!!1!

Und dann landet man meist zwangsläufig beim Performance-Preset. Dank der hohen DPI fallen da Artefakte m. E. auch nicht so auf.

1440 ist nicht Fisch und nicht Fleisch!
Deutlich dehr DPI als grobschächtiges Full-HD.
Aber viel zu wenig, als dass man die einzelnen Pixel nicht mehr sehen könnte.

Merke ich auch deutlich bei normalem Desktop-Betrieb: ohne ClearType ist die Schrift zu dünn. Mit ist sie unscharf. Bei 4K ist die Schrift auch mit ClearType scharf.

Wenn es endlich bezahlbare 21:9-Monitore mit 2160 gibt, hole ich mir sofort einen!
 
PrefoX schrieb:
es sieht sowas von nicht super aus und die ingenieure sollen fürs marketing arbeiten? okay zum glück leitest du jetzt kein unternehmen xD Stillstand ist für dich gut okay aber bitte schade doch den anderen nicht
Was willst Du jetzt?
Was bringt mir denn Fortschritt wenn es nicht in Spielen landet, das kann noch so geil aussehen wenn es niemand integriert.
Wenn AMD Geld rein steckt dann eher in die Verbreitung statt ein schon gutes Produkt besser zu machen aber man hat nix davon.
Mal mitdenken könnte helfen!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andre83hro
ParrotHH schrieb:
Bevor ich vor ca. 5 Jahren den PC wieder zum Spielen benutzt habe, hatte ich einen 4K-Schirm mit 27" im Einsatz. Der konnte aber nur 60Hz, kein VRR und kein HDR. Also habe ich mir dann einen ordentlichen 21:9-Monitor mit MiniLED und 165HZ zugelegt, Auflösung besagte 3440x1440.

Ich trauere der 4K-Auflösung am Desktop IMMER NOCH nach!

Das ist einer der Gründe, warum ich mir zusätzlich noch einen "Konsolen-PC" auf Linux-Basis fürs Wohnzimmer gebastelt habe. Denn der hängt am 4K-TV. Is einfach goiler!11!!!!1!
Das ist aber eine recht wilde Aussage, PPI dürften bei Deinem Monitor mit 1440p eher höher sein als 4k auf dem TV. Wenn Dein Monitor nicht grad ein 32" ist und der TV auch...

Aber ja, eine höhere Auflösung macht das Bild natürlich generell schärfer und auch weniger anfällig für Fehler. Darum sehen FSR und DLSS auch auf 4k immer am Besten aus.
 
Loopman schrieb:
Sie wären dumm, wenn sie da auch nur minimale Energie reinstecken würden.

Es entstehen Kosten und als Dank verdient man dann auch noch weniger... 😂
Es wäre Marken- und Klientelpflege - auch wenn Du das hinter Branding und Kunden-/Produktpflege stehende Konzept scheinbar noch nicht mitbekommen zu haben scheinst - und damit alles andere als dumm und dann ein Grund weniger immer noch von nicht wenigen reichweitenstarken Tech-Tubern angeprangert zu werden.

Insgesamt macht es m.E. noch weniger Sinn seitens AMD Zeit/Ressourcen in minimale Verbesserung von FSR4 steckt, die keinen vom Hocker hauen, anstatt FSR4 für RDNA 2 und 3 so lernresistent zu behandeln und nicht ordentlich zu implementieren (obwohl per geleaktem Mod bekannt ist, dass es funktioniert).

Wenn man sich die Verkausfzahlen bzw. die Marktanteil-Entwicklung im Gaming-Bereich anschaut, ist RDNA4 eher kein großer Erfolg (zumal die Kartengeneration wegen der 16 GB RAM Stagnation und neuer Architektur mit RDNA5/UDNA1 auch eher schlecht altern dürfte), was u.a. auch am neuen Exklusiv-Feature-Support liegen dürfte.

Mir ist es relativ egal, denn vor RDNA6/UDNA2 wird es bei mir sowieso nicht relevant werden und bis dahin wird man sehen wie sich (aktuell sieht es danach aus, als ob man weiterhin nVidia hinterher laufen möchte bei "Eigenentwicklungen" und Trends, aber damit dürfte man auch langfristig keine Blumentopf gewinnen können).
 
Grestorn schrieb:
Du beziehst Dich doch von den Vergleichsvideos dieses Artikels, oder?

Und der Videoplayer hat eine Zoomstufe (unten links in der Bedienleiste). Und wenn die nicht auf 100% steht, dann sieht man alle möglichen Artefakte, die NICHT vom Ausgangsmaterial kommen sondern vom Videoplayer. Speziell, wenn der Zoom < 100 ist.
Nein. Ich habe nur die Aussage getätigt, dass man mit DLSS 4.5 das ruhigste Bild hat.

Ich habe nie etwas von Videos, Artefakten oder was auch immer geschrieben 🤣
 
  • Gefällt mir
Reaktionen: Andre83hro
@mTw|Marco Ich glaube ich wollte ein ganz anderes Posting zitieren und hab mich verklickt. Irgendjemand hatte geschrieben, dass es ganz schrecklich flimmern würde...

Sorry. Totales Missverständnis.
 
  • Gefällt mir
Reaktionen: mTw|Marco
Solange nichts rumflackert ist es mir Bums wie die Technik genannt werden will.
 
moshkopp schrieb:
Danke für deine Rückmeldung!

Hmm...welchen massiven Nachteil denn? Klar es kostet ca. 5 % Performance im Vergleich zu Preset M. Allerdings sieht die Bildqualität gerade im Puncto Stabilität von Vegetation und feinen Details sichtlich besser aus. Auch die mit Preset M auffällige Überschärfung ist ein wesentlich kleineres Problem.

Das kann ich zumindest in meinen letzten Spielen auch so bestätigen. Einige der bekannten Techtuber wie Hardware Unboxed und Digital Foundry kommen zum selben Fazit.
Preset L hat das Problem, dass dies bei Vegetation ganz gerne heftig schmiert und mit Ghosting zu kämpfen hat. Das sieht man bei Hardware Unboxed falls ich mich richtig erinnere sehr gut an deren Tests mit Mafia. Das kritisieren sie auch, haben aber zumindest nicht im Video die Verbindung gezogen, dass dies an Preset L liegt. Preset M sieht in den Spielen deutlich besser aus.

Ich selbst wüsste nicht, dass Digital Foundry das Preset L gegenüber Preset M empfhohlen hat. Hier könnte ich aber auch falsch liegen.


danyundsahne schrieb:
Eben, ging ja früher auch, dass alle Spaß am Zocken hatten und sich nicht wegen piekfeiner Details, die man mit Zoom und Lupe suchen muss, herumgestritten hat ;)
Die High End Community in den meisten Foren ist nur zu sehr verwöhnt ;)
Auch früher war Grafik wichtig. Sonst hätte es kaum diese wahnsinnig schnelle Entwicklung gegeben. Und da war Grafik definitiv auch schon ein Punkt, der ein Teil der Faszination Gaming ausmacht.
 
  • Gefällt mir
Reaktionen: Brrr
Shir-Khan schrieb:
Ich sehe in den Vergleichsvideos kaum bis keine Unterschiede. Kann also keinen "Sieger" festmachen. Vielleicht wird es wirklich Zeit für eine Brille...
Sehr interessanter Filter. Ich sehe schon die neue Werbung. Brillen X mit "KI Optimierung".
DLSS und FSR Ready für Einsteiger :D

Eine Computerbrille von EVGA oder Sapphire wäre schon was feines.
 
Loopman schrieb:
Natürlich kann man auch die alten Spiele wieder zocken (und ich selbst habe wirklich mit Pong/Asteroids/etc.) Ende der 70er schon angefangen), aber trotzdem mag ich eine möglichst realitätsnahe Immersion. Das gehört für mich dazu.
So weit wollte ich eigentlich gar nicht zurück: Mein Vergleich war HD<>SD, nicht HD<>Daumenkino. ;)

Bei meiner ursprünglichen Aussage ging es mir um mit/ohne FSR, oder den geringen Unterschieden zwischen den einzelnen Versionen:

1. Ist ein schlechtes/langweiliges Spiel durch FSR plötzlich richtig toll? Und wird es durch eine neueren FSR-Version plötzlich noch viel besser?

2. Ist ein spannendes, herausforderndes und fesselndes Spiel mit einer älteren FSR-Version, oder ganz ohne, plötzlich Müll?

Und was ist mit dem beschriebenen flackern?

Wäre ein nur unwesentlich schlechteres Bild (was man im Eifer des Gefechts sowieso nicht merkt), dafür ohne flackern (was mich stören/ablenken würde) nicht besser?
 
  • Gefällt mir
Reaktionen: Andre83hro
Zurück
Oben