Test FSR Upscaling 4.1 im Test: Die Analyse in 7 Spielen im Vergleich zu FSR 4.0 & DLSS 4.5

Tevur schrieb:
Tasächlich erinner ich mich daran nicht. Sachen gibt's. Wann soll das gewesen sein?

Ist ja aber dann nicht gerade beim Thema, einen echten Benchmark-Betrug als "hat man so gesagt" herabzspielen. Und hat auch nichts mit den Argumenten gegen Upscaling zu tun.
https://winfuture.de/news,9047.html

https://www.computerbase.de/artikel/grafikkarten/bericht-versteckspiele-bei-atis-texturfilter.338/

Argumente gegen Upscaling sind sehr emotional und wenig faktenbasiert. Aber da waren wir ja schon mal :)
 
Wenn ich Tekken 8 auf meinem LG OLED G5 spiele und DLSS 4.5 Preset L aktiviert habe, habe ich das Gefühl jenseits von UHD Grafik unterwegs zu sein. Es fühlt sich jedes Mal so an, dass das Bild gar nicht mehr besser sein könnte! Es ist kristallklar, kein Nachziehen, keine unerwünschten Bildfehler! Einfach nur wow!💯👍🏻
 
  • Gefällt mir
Reaktionen: Samuelz
SuperHeinz schrieb:
Ich bleibe dabei, dass für mich keine (deutlichen) Unterschiede erkennbar sind. Das liegt vielleicht allerdings an dem verwendeten 4K 60 Hz Monitor mit 27" mit dem ich die Szenen betrachte.

Von den getesteten Games spiele ich nur Anno 117 Pax Romana, und meist mit einer Intel Arc. Und bei dem Spiel ist es mir völlig egal, ob es mit 30 fps oder mit 120 fps oder mehr läuft. Hauptsache meine Einwohner sind glücklich, der Aufbau klappt problemlos, die KI-Mitspieler sind zufrieden und alle Handelsrouten funktionieren.

Wie das Spiel dabei ausschaut, ist mir schnuppe. Habe meistens keine Zeit dazu hier nachzusehen. 😁

Ich habe zwar noch einen weiteren PC, einen richtigen Gaming-PC mit einer 5070 TI, aber ich frage mich immer öfter, wozu ich den habe, wenn mir der Multimedia-PC bereits für das meiste genügt. So verwende ich den Gaming-PC eigentlich nur noch, wenn ich mal wieder eine Partie Anno 1800 starten möchte.
Krasser Typ, dir reicht das also und deswegen soll die Welt still stehen bleiben. Boomer Vibes!
 
SavageSkull schrieb:
Sry aber das war vorher klar, dass die Karten das nicht können und nie versprochen, dass sie es jemals auf das Niveau von DLSS schaffen.

Problem an der Argumentation: sie stimmt nicht!

Es gibt ja eine Implementation von FSR4 für RDNA2, die mit INT8 funktioniert, und die von AMD selbst "aus Versehen" veröffentlicht wurde. Die kann man ja auch mit OptiScaler nutzen, unter Linux funktionierte das bei mir wunderbar und sah prima aus!

Mit RDNA3 geht das ebenfalls.

SavageSkull schrieb:
Man kann nur hoffen, dass AMD jetzt mit RDNA4 endlich die Kurve gekriegt hat. Mal schauen, wie sich meine 9070XT in dem einen PC weiter entwickelt.

Du hoffst also auf "AMD fine wine"?
 
  • Gefällt mir
Reaktionen: Andre83hro
Für mich unverständlich, dass nicht auch DLSS 4 mit getestet wurde.
 
2-3 Spiele habe ich jetzt mit FSR 4.1 getestet und dass das Bild jetzt schärfer ist finde ich sehr gut. Das hat mich an den FSR Versionen davor immer gestört, dass es leicht unscharf war. (wqhd Auflösung)
 
  • Gefällt mir
Reaktionen: Micha_80
Tevur schrieb:
Weil so einen Quatsch damals keiner gesagt hat.
Strohmann
Dann hast du ganz offensichtlich die späten 90er/Anfang 2000er verpasst und/oder warst in dem Thema nicht sonderlich belesen.
 
  • Gefällt mir
Reaktionen: Grestorn
ThePlayer schrieb:
Das kannst Du seit RTX 50 auch über Nvidia schreiben. Das Treiberfiasko der letzten 12-14 Monate etwa schon vergessen? Oder die 4090 Performance der 5070? Oder die kaum mehr Performance von RTX 50 vs 40? Hier gab es genug genervte Kommentare von Nvidia Nutzern. Die auch total enttäuscht sind.
Möchtest du ernsthaft etwas relativieren, wo es nichts zu relativieren gibt?
Du folgst bei deinen Anschaffungen keinen persönlichen Präferenzen?

Mich würde wirklich interessieren wie viel AMD Radeon Nutzer wieder zu Nvidia abgewandert sind nur wegen
der Exklusivität von FSR4 für RDNA4.
Letzten Endes bin ich nur wieder bei Nvidia gelandet, weil die 9070XT bei mir nur Probleme gemacht hat.
Jenseits von FSR4/ DLSS4 sehe ich eh keine Unterschiede.
 
  • Gefällt mir
Reaktionen: Serandi.87 und Grestorn
ThePlayer schrieb:
Uh da muss ich aber deinen Stolz getroffen haben. Das Du jetzt so ausholst. Deinen Ausführungen nach sollten wir im selben Alter sein.
Aber Du scheinst Gedanklich noch in der Pubertät zu stecken.

Und wenn ich mir die fehlenden Likes unter deinen Kommentaren ansehe scheint keiner deine Sicht der Dinge zu teilen :D
Ist doch absolut nicht verwerflich, wenn jemand sagt, dass ein paar Hundert Euro tatsächlich nicht viel Geld sind. Ich sehe es genau so, hat eben jeder andere Voraussetzungen oder betrachtet Geld eben mit anderen Augen, was auch völlig ok ist.
Ergänzung ()

ThePlayer schrieb:
Hier gab es genug genervte Kommentare von Nvidia Nutzern. Die auch total enttäuscht sind.
Ein eine vermutlich zweistellige Zahl von verbitterten Boomern in einem deutschen Hardware-Forum ;)

Dem Erfolg von Nvidia hats offenbar trotzdem keinen Abbruch getan.
 
  • Gefällt mir
Reaktionen: Grestorn
Die Videovergleiche gesehen, die Ergebnisse gesehen und dann doch überrascht worden von Wolfgangs Kommentar. Am Ende aber durchaus logisch, sind für ihn die Nuancen, die wir kaum wahrnehmen, vielleicht präsenter. Dennoch das Gefühl, dass er sich da etwas zu sehr in DLSS 4.5 verlaufen hat. Ich würde tatsächlich auf ein anderes Fazit kommen. Zumindest der Aspekt, dass bei einer kleinen aber existenten Verbesserung keine Leistung einzubüßen ist. DLSS 4.5 kostet ja schon ein paar Frames. Das fällt hier unnötigerweise etwas unter den Teppich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CadillacFan77, Hatch, Return2Burn und 3 andere
Grestorn schrieb:
Deswegen sind die "AI Upscaling" Verfahren in der Lage mehr Details als nativ abzubilden und dabei auch noch stabiler (weniger Flimmern) und schneller zu arbeiten als native.
Fast richtig.
Nur trifft das alles bei temporalen Verfahren zu.
Das bezeichnet Verfahren deren Quellmaterial ein Zeitraum, kein Zeitpunkt, ist.
Oder kurz gesagt mehrere Frames statt einem als Quelle.
Mit AI hat das grundsätzlich erstmal nichts zu tun. Einen temporalen Upscaler kann man komplett ohne Machine Learning basteln, ML verbessert die Ergebnisse aber weiter.
 
  • Gefällt mir
Reaktionen: Andre83hro
Mal alle Videos angesehen. Für mich sind die Unterschiede so gering, dass da zur Zeit keine der getesteten Technologien ein entscheidendes Kaufargument wären.
 
Man muss es leider so sagen, aber AMD ist im GPU Bereich komplett abgehängt. Die Karten kosten häufig über 300 € und ab diesen Preisbereichen würde ich mich nicht mehr mit dem deutlich schlechteren Upscaling im Vergleich zu NVidia zufrieden geben, dafür ist es dann einfach zu teuer
 
Meiner Meinung nach ist Upscaling inzwischen bei einem Niveau angekommen, bei dem man schon extrem genau nach den Unterschieden bei überspitzt gesagt jedem fallenden Blatt und jedem sich bewegenden Grashalm schauen muss um Unterschiede zu erkennen.

Ich fänd es jetzt deutlich wichtiger, dass die neuesten Technologien in der Breite in die Spiele integriert werden und man sich eben darauf fokussiert. Was bringt einem eine gute Technologie wenn sie nur in einem kleinen Teil der genutzten Spiele vorhanden ist? Das sollte meiner Meinung nach der Hauptantrieb der Hersteller sein, die Entwickler dahingehend bestmöglich zu unterstützen, denn das ist dann die beste Werbung für das eigene Produkt wenn man sagen kann "Hey, unsere Technologie ist bei fast allen Spielen integriert und nutzbar." Da kann man dann gerne länger auf den nächsten Quantensprung warten, der dann aber wieder einen deutlichen Fortschritt bietet. Ansonsten wirkt die Technik wie ein Halo Produkt, das zwar theoretisch super, aber praktisch fast nicht genutzt wird.
 
ParrotHH schrieb:
1440 ist nicht Fisch und nicht Fleisch!
Deutlich dehr DPI als grobschächtiges Full-HD.
Aber viel zu wenig, als dass man die einzelnen Pixel nicht mehr sehen könnte.

Merke ich auch deutlich bei normalem Desktop-Betrieb: ohne ClearType ist die Schrift zu dünn. Mit ist sie unscharf. Bei 4K ist die Schrift auch mit ClearType scharf.
Je nachdem wie der Pixel im Kontrast zu seinen Nachbarpixeln steht wird man auch mit 16k einzelne Pixel erkennen.

Heute ist im Gegensatz zu früher in den 2000ern, als die Geometrie deutlich einfacher war und es keine Tesselation gab, deutlich weniger Objekte und co, die Kanten deutlich weniger prägnant, weswegen auch ein Aliasing mit hervorstehenden Pixeln weniger scharf ins Auge stechen.

Die DPI ist massiv gestiegen, selbst FullHD ist im Vergleich zur Basis aus den Anfangszeiten deutlich höher.

Das native Bild von heute ist deutlich weniger verpixelt und die notwendigkeit von höherer DPI ist deutlich geringer bzw der Nutzwert steigt nicht mehr im gleichen Verhältnis zum Aufwand.

Unter Office war für mich eine hohe DPI immer damit verbunden, dass ich skalieren musste und das Erlebnis Windows und Programme zu skalieren ist für mich aktuell ein Grund gegen hohe Auflösung.

Ich werde noch einige Jahre nicht auf 4k umsteigen, für mich ist das aktuell mit starken Nachteilen verbunden, ohne mir spürbare Vorteile zu bieten.
ParrotHH schrieb:
Es gibt ja eine Implementation von FSR4 für RDNA2, die mit INT8 funktioniert, und die von AMD selbst "aus Versehen" veröffentlicht wurde.
Bei dem Wording bekommt man schon Alu Hut Vibes. Ich denke AMD hat durchaus FSR4 auch für RDNA2 und 3 mitentwickelt und aus irgendeinem Grund dann abgebrochen, weil ihnen das Ergebnis nicht gefallen hat. Dieser Entwicklungsstand ist halt geleakt worden.
ParrotHH schrieb:
Du hoffst also auf "AMD fine wine"?
Ich weiß ja, was ich Stand heute von der Karte habe und freue mich für einen schmalen Taler gute Leistung mittlerweile ohne nennenswerte Kompromisse für den zweiten PC zu bekommen. Dazu kommt, dass die AMD Karte deutlich schmerzfreier unter Linux läuft. Aber die 4090 im großen System betrachte ich nicht nur von der Leistung für das bessere Stück Technik.
 
SavageSkull schrieb:
Die DPI ist massiv gestiegen, selbst FullHD ist im Vergleich zur Basis aus den Anfangszeiten deutlich höher.

Ich hab ja den Pepsi-Test gemacht, in dem ich von einem 27"-Monitor mit 3.840×2.160 (ober ohne HDR und nur 60Hz) auf einen 34"-Monitor mit 3440x1440 gewechselt bin.

Es ist für mich in Sachen Auflösung ein klarer Rückschritt, da gibt es gar nichts zu diskutieren.

SavageSkull schrieb:
Unter Office war für mich eine hohe DPI immer damit verbunden, dass ich skalieren musste und das Erlebnis Windows und Programme zu skalieren ist für mich aktuell ein Grund gegen hohe Auflösung.

Ja, habe ich ja jahrelang zu Hause gemacht, das ging an sich problemlos. Ab und an gab es ein paar Programme, bei denen keine skalierbaren Schriften in der GUI genutzt wurden, da war das Ergebnis nicht so toll, in Summe aber wog der Vorteil der deutlich schärferen Schrift in den allermeisten Programmen - insbesondere Office - den Nachteil in manch schlechter oder alter Implementierung mehr als auf.

Der Schritt zu 1440 fühlt sich für mich immer noch so an, als hätte ich eine Dekade Fortschritt wieder hergeben müssen.

SavageSkull schrieb:
Bei dem Wording bekommt man schon Alu Hut Vibes. Ich denke AMD hat durchaus FSR4 auch für RDNA2 und 3 mitentwickelt und aus irgendeinem Grund dann abgebrochen, weil ihnen das Ergebnis nicht gefallen hat. Dieser Entwicklungsstand ist halt geleakt worden.

Was hat das mit Aluhüten zu tun?

Ich weiß nicht, warum FSR4 mit INT8 geleakt wurde. Es ist aber in der Welt, man kann es ausprobieren, bzw. einfach benutzen, wenn man weiß, wie. Ich habe das mit meiner RX 6800 XT auch getan, große Tech-Channel ebenfalls, und kommen zu einem recht eindeutigem Schluss.

On what I've seen today, there is no doubt that AMD should release the INT8 version of FSR4. The indevelopment build that I analyzed thanks to AMD's source code blunder is a significant upgrade on FSR3 and an improvement upon XESS that owners of older Radeon cards would often opt to use. For those with RDNA 3 and RDNA2 GPUs, FSR4 INT8 would be the go-to choice for upscaling in modern titles. It would extend the life of these products and be a great way to support loyal Radeon buyers. I was pretty skeptical about whether AMD could bring FSR4 to older graphics cards in a way that would work well. I thought they could probably get it working in some way, but that the algorithm would prove to be too taxing without the hardware acceleration capabilities introduced in RDNA4.

This is partially true. FSR4 INT8 uses a downgraded algorithm that is more taxing than FSR4 FP8. But despite this, it's still a good upscaler. I guess I underestimated how bad FSR3 looks at resolutions like 1440p and how much scope for improvement there was, even if the heights of full fat FSR4 are not reached. In many situations, it's very impressive how close the intake version gets to the FP8 version in image quality. So, even if it's a more performance-intensive technology on RDNA3, you might still want to sacrifice a few FPS to enjoy its visual output.

Tim von Hardware Unboxed lässt seit diesem Video ja keine Gelegenheit aus, eine offizielle Version dieser FSR4-Implementierung von AMD zu fordern, weil sie eben nachweislich funktioniert, und für den Benutzer einfach eine zusätzliche Option mit besserer Bildqualität bietet, und nicht jeder deshalb mit Tweaks wie OptiScaler herumhantieren will.

Und wenn man es selbst mal benutzt hat, kommt man zu einem ähnlichen Schluss. Ich jedenfalls!

SavageSkull schrieb:
Ich weiß ja, was ich Stand heute von der Karte habe und freue mich für einen schmalen Taler gute Leistung mittlerweile ohne nennenswerte Kompromisse für den zweiten PC zu bekommen. Dazu kommt, dass die AMD Karte deutlich schmerzfreier unter Linux läuft. Aber die 4090 im großen System betrachte ich nicht nur von der Leistung für das bessere Stück Technik.

Meine 4090er würde ich nicht mit meinen 9070 XTs vergleichen wollen. Das ist ja eine vollkommen andere Preisklasse. Aber mit meiner 4080 dann schon. Da können die AMDs schon so gut mithalten, dass ich da keine Karte technisch bevorzugen würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andre83hro
ParrotHH schrieb:
Ich hab ja den Pepsi-Test gemacht, in dem ich von einem 27"-Monitor mit 3.840×2.160 (ober ohne HDR und nur 60Hz) auf einen 34"-Monitor mit 3440x1440 gewechselt bin.

Es ist für mich in Sachen Auflösung ein klarer Rückschritt, da gibt es gar nichts zu diskutieren.
Naja, den Monitor zu vergößern und die Auflösung gleichzeitig zu reduzieren ergibt schon eine massive Reduktion der dpi. Und das sieht man natürlich.

Ich bin von einem 27" 4k Monitor auf einen 49" mit 5120x1440 umgstiegen. Auch da ist die dpi gesunken. Aber zumindest meine alten Augen sehen das nur unter großer Anstrengung (der alte 27" 4k steht daneben, ich kann also direkt vergleichen).

Ja, Dual-UHD (7680 x 2160) wäre sicher noch besser, aber ich persönlich glaube nicht, dass sich für mich die kaum sichtbar höhere Detailauflösung im Austausch gegen FPS rentiert.

Wenn ich 25 wäre vielleicht. Aber ich bin mehr als doppelt so alt...
 
fortknox schrieb:
Gibt es unter euch Usern bei Computerbase wirklich welche die den "Performance" Modus von DLSS/FSR nutzen?
DLSS Performance bei UHD in der Regel immer, sieht bereits besser aus als Native TAA.
Bei WQHD maximal Quality Mode, je nach Spiel auch DLAA.
 
  • Gefällt mir
Reaktionen: Grestorn
ParrotHH schrieb:
Ich hab ja den Pepsi-Test gemacht, in dem ich von einem 27"-Monitor mit 3.840×2.160 (ober ohne HDR und nur 60Hz) auf einen 34"-Monitor mit 3440x1440 gewechselt bin.

Es ist für mich in Sachen Auflösung ein klarer Rückschritt, da gibt es gar nichts zu diskutieren.



Ja, habe ich ja jahrelang zu Hause gemacht, das ging an sich problemlos. Ab und an gab es ein paar Programme, bei denen keine skalierbaren Schriften in der GUI genutzt wurden, da war das Ergebnis nicht so toll, in Summe aber wog der Vorteil der deutlich schärferen Schrift in den allermeisten Programmen - insbesondere Office - den Nachteil in manch schlechter oder alter Implementierung mehr als auf.

Der Schritt zu 1440 fühlt sich für mich immer noch so an, als hätte ich eine Dekade Fortschritt wieder hergeben müssen.
Es ist nicht so, dass ich die mehr Pixel nicht wahrnehme, für mich persönlich ist die Steigerung aber nicht mehr so groß, ausgehend von den 110DPI bei WQHD auf 27". Für mich war zuletzt der größte Fortschritt bei den Monitoren OLED mit echtem schwarz, hohem Kontrast, kein Nachziehen, echtes HDR mit unterschiedlich hellen Pixeln (echtes FALD bei HDR). Und 60Hz war schon damals bescheiden.
Das war für mich in den letzten Jahren der größte Sprung, was das Bild angeht.
Auf der anderen Seite sehe ich gerade am Arbeitsplatz, bei dem ich das Notebook Display skalieren muß, leider immer wieder, wieviele Teile von Windows und diverser Programme dann unscharf werden, weil das immer noch keine Vector Grafiken sind, wie blöd Skalierung immer noch ist.
 
Grestorn schrieb:
Naja, den Monitor zu vergößern und die Auflösung gleichzeitig zu reduzieren ergibt schon eine massive Reduktion der dpi. Und das sieht man natürlich.

Ein 16:9-Panel mit 27" und ein 21:9-Panel mit 34" haben die gleiche Höhe, nämlich ca. 33 cm. Und damit haben sie natürlich auch die gleich DPI.

Grestorn schrieb:
Ich bin von einem 27" 4k Monitor auf einen 49" mit 5120x1440 umgstiegen. Auch da ist die dpi gesunken. Aber zumindest meine alten Augen sehen das nur unter großer Anstrengung (der alte 27" 4k steht daneben, ich kann also direkt vergleichen).

So einen Monitor habe ich fürs Simracing (Samsung Neo G9). Schönes Teil und sehr immersiv. Und genau deshalb (Immersion) habe ich den so nah wie irgend möglich an meine Hackfresse positioniert. Mein erster Aufschlag vor ein paar Jahren war der 4K-TV mit 65". Da saß ich prinzipbedingt deutlich weiter weg, aber er füllte trotzdem aufgrund der schieren Größe einen ähnlichen vertikalen Bereich meines Sichtfeldes aus.

Auch den Samsung Neo G9 empfinde ich in Sachen Auflösung als klaren Rückschritt.

Weil er aber deutlich breiter ist, und mich wegen seiner extremen Krümmen (900R) quasi "umschließt", überwiegen die Vorteile.

Im Büro habe ich mir einen 32:9-Monitor mit 5120x1440 auf 45" geholt (Iiyama), da sitze ich gerade davor. 49" wären mir zu wuchtig gewesen auf dem Schreibtisch. Natürlich sehe ich da trotzdem die einzelnen Pixel.

Grestorn schrieb:
Ja, Dual-UHD (7680 x 2160) wäre sicher noch besser, aber ich persönlich glaube nicht, dass sich für mich die kaum sichtbar höhere Detailauflösung im Austausch gegen FPS rentiert.

Wenn ich 25 wäre vielleicht. Aber ich bin mehr als doppelt so alt...

Ja mei, ich bin 55 und sehe die höhere Detailauflösung halt deutlich. Früher mal ohne, jetzt leider mit Brille.

Es ist zugegeben so, dass bei sich schnell bewegender 3D-Grafik die Unterschiede etwas kleiner sind als bei statischer Testdarstellung. Aber sie sind vorhanden und einer der Gründe für mich, mir wieder einen "Wohnzimmer-PC" zu basteln, der am 4K-TV hängt.

Dort habe ich eine 9070 XT im Einsatz, die die 4K des TV-Panels mit Hilfe von FSR4 stemmen muss. Sieht prima aus, und aktuell bevorzuge ich das ganz deutlich vor meinem PC mit einer RTX 4090 am 21:9-Monitor mit 1440 und DLSS 4.5.
 
  • Gefällt mir
Reaktionen: Grestorn
Sapphire Forum
Zurück
Oben