Test FSR Upscaling 4.1 im Test: Die Analyse in 7 Spielen im Vergleich zu FSR 4.0 & DLSS 4.5

ParrotHH schrieb:
Ein 16:9-Panel mit 27" und ein 21:9-Panel mit 34" haben die gleiche Höhe, nämlich ca. 33 cm. Und damit haben sie natürlich auch die gleich DPI.
Dass der 21:9 ist habe ich übersehen, sorry. Hätte ich aus der Auflösung sehen müssen. Aber die gleiche DPI haben sie nicht, da der 27" ja 4k war und damit 2.160 Pixel vertikal, wogegen der neue nur 1440 Pixel vertikal hat - aber beide gleich hoch sind.

Das ist genau das gleiche, wie bei mir, als ich vom 27" 4k auf den 49" G9 OLED gegangen bin. Gleiche Bildhöhe, aber nur 1440 statt 2160 Pixel vertikal.
 
Es ist schon lustig, wie unterschiedlich subjektive Wahrnehmung und persönliche Präferenzen doch sind.

SavageSkull schrieb:
Es ist nicht so, dass ich die mehr Pixel nicht wahrnehme, für mich persönlich ist die Steigerung aber nicht mehr so groß, ausgehend von den 110DPI bei WQHD auf 27". Für mich war zuletzt der größte Fortschritt bei den Monitoren OLED mit echtem schwarz, hohem Kontrast, kein Nachziehen, echtes HDR mit unterschiedlich hellen Pixeln (echtes FALD bei HDR). Und 60Hz war schon damals bescheiden.

Habe ich auch immer gelesen, und mir deshalb in für meine Zweitwohnnung einen OLED-TV (Sony, 55") und einen OLED-Monitor (Evnia 34") gekauft.

In der anderen Wohnung stehen dagegen ein 65"-TV mit LED und FALD, ein 34"-und ein 49"-Monitor mit MiniLED, allesamt VA-Panels. Im Vergleich würde ich immer die viel helleren VA-Panels bevorzugen. Bei den OLEDs gehen mir neben der geradezu lächerlich geringen Helligkeit bei HDR zusätzlich noch einige praktische Kleinigkeiten auf den Sack, so dass das für mich nach persönlicher Prüfung eine eher verzichtbare Technik ist.

Ich setze da für die Zukunft eher auf Mini- bzw. MicroLED, auch wenn OLED langsam in akzeptable Helligkeitsbereiche vordringen.

Aber wie gesagt: da sind die Geschmäcker offensichtlich verschieden.

SavageSkull schrieb:
Auf der anderen Seite sehe ich gerade am Arbeitsplatz, bei dem ich das Notebook Display skalieren muß, leider immer wieder, wieviele Teile von Windows und diverser Programme dann unscharf werden, weil das immer noch keine Vector Grafiken sind, wie blöd Skalierung immer noch ist.

Mein Notebook nutze ich im Büro permanent als Zweitdisplay neben dem 45"-Monitor. Auflösung 2880x1800 auf 14", Skalierung ist auf 175% eingestellt. Geht problemlos mit dem Kram, den ich nutze.
 
ParrotHH schrieb:
Im Vergleich würde ich immer die viel helleren VA-Panels bevorzugen.
Für mich ist und war Helligkeit nie ein Thema. Ich möchte nicht vom Monitor angestrahlt werden. Es ist für mich auf Dauer angenehmer, wenn die Helligkeit aus dem Raum, bzw dessen Beleuchtung kommt und ich nicht aktiv in die Lichtquelle hineinschaue. Lustigerweise ist das auch mal ein Thema im Bereich Druck und Medien gewesen, dass hier auch mit dem Ziel im Hinterkopf, dass die gedruckte Seite auch nicht leuchtet und bei der Erstellung auf dem Monitor daher die Helligkeit auch massiv runtergefahren wird. Mein letzter LCD war auf 13% Helligkeit eingestellt.
Bei einem Fernseher mit Lichtquellen wild im Raum verteilt, muß die Helligkeit oft höher eingestellt werden, aber am PC, wo die Beleuchtung und der Sitzplatz entsprechend passen, brauche ich das nicht und möchte lieber dunkle Monitore. Dann muß aber auch der Kontrast passen und der ist bei OLED in einer anderen Galaxie, als bei den LCDs.
 
SavageSkull schrieb:
Für mich ist und war Helligkeit nie ein Thema. Ich möchte nicht vom Monitor angestrahlt werden. Es ist für mich auf Dauer angenehmer, wenn die Helligkeit aus dem Raum, bzw dessen Beleuchtung kommt und ich nicht aktiv in die Lichtquelle hineinschaue.

Wir sind hier ja im Kontext DLSS/FSR unterwegs, und die sind im Regelfalle bei bewegter 3D-Grafik im Einsatz, in der eine Welt optisch simuliert wird. Und in diesem Kontext will ich eben schon angestrahlt werden. Wenn also die Sonne in ein Fenster scheint, dann soll das gerne so aussehen, wie wenn die Sonne in ein Fenster scheint... genau das macht ja Immersion aus.

Und wie im echten Leben nimmt man die Sonne dann als sauhelle Lichtquelle war, aber man schaut nicht direkt hinein.

Im Kontext normaler Bildschirmarbeit stimme ich Dir dagegen vollkommen zu. Wenn man lange auf Bildschirmmasken schaut, sollten die nicht zu hell und nicht zu kontrastreich sein. Ich stelle da die Helligkeit und Kontrast ganz absichtlich immer sehr sehr sehr defensiv ein.

SavageSkull schrieb:
Dann muß aber auch der Kontrast passen und der ist bei OLED in einer anderen Galaxie, als bei den LCDs.

Ob der Kontrast für mich "gut genug" ist, teste ich bei geeignetem Bildmaterial: Wenn ich optisch nicht erkennen kann, wo das Panel aufhört, und wo der Rahmen anfängt, dann ist der Kontrast hoch genug, bzw. das Schwarz schwarz genug.

Das schaffen alle meine VA-Displays mit passender Raumbeleuchtung (und wichtig: ganz leichter Beleuchtung der Wand hinter dem Monitor/TV). Der Sony-TV hat aus der Erinnerung einen Kontrast von ca. 10.000:1, der Samsung Neo G9 angeblich 1.000.000:1 bei meinem 34"er mit HDR 1400 und über 1.000 Dimming-Zonen weiß ich es nicht genau, aber "es reicht" dicke!

Und mal ganz praktisch: wo im realen Leben kommt denn solch absolutes Schwarz, also die Absenz jeglichen Lichts wirklich vor? Ich war mal in Brasilien in einer Höhle, da sind wir hunderte verwinkelte Meter in die Tiefe des Berges gelaufen, und haben dann alle unsere Stirnlampen ausgeschaltet. Da waren es dann tatsächlich 0 Nits. Das fand ich nach kurzer Zeit ziemlich beängstigend (meine Freundin fand es toll). In meinem sonstigen Leben treten hohe Kontraste praktisch immer aufgrund hoher Helligkeit einzelner Lichtquellen auf, nicht weil es irgendwo besonders dunkel oder gar komplett (!) schwarz wäre.

Ja: Weltraumspiele... OK!
 
Zuletzt bearbeitet:
Guter Vergleich diese Artikel machen wirklich Spass, aber die Lesebrille sollte man schon auf der Nase haben um die Unterschiede wirklich zu sehen.
Interessant finde ich vor allem wie verschieden die Wahrnehmung sein kann. In Tlou zum Beispiel stört mich bei FSR das bisschen Unterschied in der Schärfe weitaus weniger als der Unterschied beim Wasser. Gerade aus der Entfernung kommen da bei FSR4.1 schon DLSS4 Vibes auf.
Screenshot 2026-03-30 215724.png
FSR4 war da früher besser als DLSS4, DLSS 4.5 ist inzwischen auf den ersten Platz gerückt.

Allerdings muss man auch sagen das hat sich alles erledigt wenn ich die Brille weglasse, daher kann ich verstehen wenn man keinen Unterschied sieht, vor allem da der Unterschied nicht in jedem Game so hervorsticht.

gedi schrieb:
dass nicht auch DLSS 4 mit getestet wurde
Vier UHD Videos@60fps gleichzeitig abspielen überfordert viele Grafikkarten, deswegen gibt es hier immer maximal 3 Videos, da fällt die Wahl für einen 4.1 Vergleich logischerweise auf DLSS 4.5.
Das kann man aber relativ einfach selber vergleichen, Video Downloadhelper installieren und ICAT downloaden und los gehts.
Wurde so auch kommuniziert in dem Link findest du dann auch die DLSS 4.0 Videos zu den Games.

ParrotHH schrieb:
Ein 16:9-Panel mit 27" und ein 21:9-Panel mit 34" haben die gleiche Höhe, nämlich ca. 33 cm. Und damit haben sie natürlich auch die gleich DPI.
Nur bei gleicher Auflösung, den Unterschied den du feststellst kommt durch die Pixeldichte, wechselst du von einem 34Zoll UHD auf 34 Zoll UWQHD merkst du da kaum einen Unterschied 119ppi zu 110ppi.
Auch WUHD bringt dich auf maximal 140ppi die gibt es erst ab 40Zoll und nicht 163ppi wie bei deinem 27Zoll UHD.
https://www.retracked.net/pixeldichte/
 
A.Xander schrieb:
Nur bei gleicher Auflösung, den Unterschied den du feststellst kommt durch die Pixeldichte,

Ja, das meinte ich natürlich. Nicht ordentlich formuliert von mir.

Der Ausgangspunkt war der Vergleich eines 27"-Monitors mit UHD zu einem 34"-Monitor mit UWQHD...! Die 34" sind natürlich "größer", aber aufgrund des 21:9 Formates nur in der Breite. Die Höhe ist identisch mit einem 27"-Modell.

Und in diesem Vergleich merkt man (ich) den Unterschied der "Pixeldichte" (163 zu 109) jedenfalls schon deutlich.
 
MiG001 schrieb:
Auch finde ich es schade, dass der höhere Leistungsbedarf von DLSS 4.5 beiseitegewischt wird, wo doch die Performance der wichtigste Faktor beim Upscaling ist.

Ist nicht das erste Mal, bei letzten Tests wurde DLSS 4.5 angepriesen, aber mit deutlich schlechterem DLSS 4.0 die Benchmarks erstellt. Weder hat man daraufhin die Qualitätsstufe geändert oder die schlechtere Bildqualität gekennzeichnet. Was bei AMD für die Redaktion selbstverständlich gewesen ist, gilt nicht für DLSS.
 
Man muss schon verdammt genau hin schauen um mit FSR 4 oder DLSS was auch immer einen unterschied zu erkennen. Ich nutze FSR 4 sehr viel dank meiner 9070 xt und Feier es. Es sieht auf meinem 4k oled auch 32 zoll Richtig geil aus Und bei Schnellen bewegungen was in Spielen ja meistens statt findet sieht man den unterschied so gut wie nie
 
HOCLN2 schrieb:
dennoch die Frage, ob TAA, FXAA, SMAA oder MSAA benutzt wurde. Das macht ein Riesen Unterschied, wenn man von "Nativ" redet.
Ich bin froh, dass wir das hinter uns haben. All diese Glättungsverfahren schneiden schlechter ab als DLSS/FSR.
TAA eliminiert kleine Details, da es das Bild sehr weichzeichnet.
FXAA glättet sehr dezent und dementsprechend schlecht.
SMAA besser als FXAA aber dennoch viel Kantenflimmern.
MSAA glättet keinerlei Transparente.
Vor DLSS/FSR war TXAA sehr gut, aber es war Nvidia-exklusiv und war in vielen Spielen nicht eingebaut und kostete ähnlich viel Leistung wie das schlechtere MSAA.

DLSS/FSR sind auch nicht perfekt, aber besser als alles oben Erwähnte.
 
joel schrieb:
Möchtest du ernsthaft etwas relativieren, wo es nichts zu relativieren gibt?
Du folgst bei deinen Anschaffungen keinen persönlichen Präferenzen?
Ich relativiere hier nichts ich zähle Fakten auf.
Ergänzung ()

mTw|Marco schrieb:
Ist doch absolut nicht verwerflich, wenn jemand sagt, dass ein paar Hundert Euro tatsächlich nicht viel Geld sind. Ich sehe es genau so, hat eben jeder andere Voraussetzungen oder betrachtet Geld eben mit anderen Augen, was auch völlig ok ist.
Das hängt doch davon ob wie Teuer etwas ist. Klar wenn ich ein Auto kaufe und es kostet am Ende nicht 52.000 sondern 53.500 Euro dann mag man da noch paar Kröten sprechen können. Aber wenn es im Endeffekt je nach dem aus welcher Warte man es betrachtet 30-50% Unterschied im Preis ist. Dann ist das was anderes. Außerdem wenn er mir schon so blöd kommt....
mTw|Marco schrieb:
Ein eine vermutlich zweistellige Zahl von verbitterten Boomern in einem deutschen Hardware-Forum ;)
Das sieht aber in der Umfrage von Sonntag aber ganz anders aus. 23% von fast 4000 Usern die Teilgenommen haben. Haben eine Radeon 9000 im Rechner und nur 19% eine RTX 50. Ich finde das mehr als bemerkenswert. Ich hätte gedacht das es bestenfalls umgekehrt wäre.
Und du weißt schon wie alt Boomer sind oder? Die sind jetzt alle im Rentenalter.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andre83hro
nipponpasi schrieb:
Sollten AMD, Sony & Microsoft da nicht doch noch irgendwas vergleichbares aus dem Hut zaubern laufen sie ab dann noch weiter hinten her.
Nein da DLSS nur den Namen Faked, es ist nicht mehr ein super sampling / upscaling, sondern eine Art Onlyfans-importierer...

Das mag für Indie Sex games oder generell Indiegames teils interessant sein, auch spart das auch keine Zeit für AAA Titel AAA muss auf Konsolen laufen da kannst also nicht nur irgendwelche hässlichen Models hin rotzen und dann Instagram Gesichter drauf mappen wenn dann die Strichmännchen auf den Konsolen angezeigt werden.

Vielleicht gibts dann ein Spiel wie damals Cyberpunk das da all in geht und nicht auf Konsolen kommt wo Nvidia sponsort wo sie geld verbrennen weil es reines Nvidia Werbespiel ist, aber alle anderen... wie auch immer selbst wenn man das für neu hält jeglicher Vorsprung vermeintlicher mit Framegen usw da die K.I. nimmer upscaled sondern nur noch alles durch K.I. ersetzt wird.

Wie auch immer es gibt 2 Möglichkeiten es setzt sich durch dann hat Nvidia ein 100% Monopol mit 0 verkäufen für AMD (gefolkt mit massiven Preiserhöhungen) zumindest für Gamer oder sie machen was ähliches dann sehen die Spiele aber extrem anders aus es gibt dann keine bekannten Charakter in Games mehr es gibt dann AMD-Alice und Nvidia Alice das 2 komplett andere Personen dann sind, will sehen wie Firmen das mögen das man ihr Spiel gar nimmer erkennt weil jeh nach Hardwarehersteller die Bilder komplett anders und nicht wieder zu erkennen sind. Das ist sicher gut um Marken zu Bilden 0 Wiedererkennungswert.

Wenn überhaupt würde ich das als nicht reines Marketingegschwaffel, AI-VIDEO-LIVE-REPLACER also AVLR 1.0 nennen das dann genauso sucken muss wie DLSS 1.0 aber es ist dann halt die Betaversion hat ja mit DLSS auch 0 zu tun und ja momentan brauchts für 2x 5090, alleine da macht es das gegenteil von Upscaling statt mehr FPS gibts weniger. Aber dann best case wird AVLR 2.0 oder 2.3 dann brauchbar und mit 3 / 4 richtig gut.

Dann hast immer noch das Problem das FSR und DLSS im Grunde noch nen ähnliches Bild macht, ein AMD AVLR kann das nicht mehr weil Nvidia im Treiber die K.I. Bilder mit liefert und da AMD nicht ran kann ohne Copyright zu brechen, also das ist der Griff nach nem harten Monopol und man schaufelt sich da als AAA Games Industrie selbst das grab weil:
1. Nvidia erreicht monopol
2. die Preise ziehen stark an
3. weniger Leute sind noch bereit das zu zahlen.
4. weniger Kunden die die Spiele kaufen können.
 
Zuletzt bearbeitet:
ThePlayer schrieb:
Ich relativiere hier nichts ich zähle Fakten auf.
Ergänzung ()


Das hängt doch davon ob wie Teuer etwas ist. Klar wenn ich ein Auto kaufe und es kostet am Ende nicht 52.000 sondern 53.500 Euro dann mag man da noch paar Kröten sprechen können. Aber wenn es im Endeffekt je nach dem aus welcher Warte man es betrachtet 30-50% Unterschied im Preis ist. Dann ist das was anderes. Außerdem wenn er mir schon so blöd kommt....

Das sieht aber in der Umfrage von Sonntag aber ganz anders aus. 23% von fast 4000 Usern die Teilgenommen haben. Haben eine Radeon 9000 im Rechner und nur 19% eine RTX 50. Ich finde das mehr als bemerkenswert. Ich hätte gedacht das es bestenfalls umgekehrt wäre.
Und du weißt schon wie alt Boomer sind oder? Die sind jetzt alle im Rentenalter.
Und deiner Logik nach ist somit jeder AMD User automatisch von NVIDIA enttäuscht und andersrum? 🤣
 
@mTw|Marco Nee das nicht. Aber anscheinend allen Unkenrufen zum trotz. Scheint AMD mit RX9000 was richtig zu machen. Auch wenn FSR4 nur für RDNA4 offiziell erschienen ist.
 
  • Gefällt mir
Reaktionen: Andre83hro
Replay86 schrieb:
Ich bin froh, dass wir das hinter uns haben. All diese Glättungsverfahren schneiden schlechter ab als DLSS/FSR.
Da bin ich absolut auf deiner Seite, aber weiß jetzt nicht, was es mit Nativ zu tun hat.

Ich war mit 27" 4K und FXAA immer sehr zufrieden. Mehr brauchte ich nicht.
 
HOCLN2 schrieb:
Ich war mit 27" 4K und FXAA immer sehr zufrieden. Mehr brauchte ich nicht.
TAA wird von den meisten als besser als FXAA angesehen. Und deswegen wird FXAA oft nicht mehr angeboten.
 
Eigentlich gar nicht mehr. In Europa Universalis 5 ist es aber noch dabei, hat mich amüsiert... :D
 
Grestorn schrieb:
TAA wird von den meisten als besser als FXAA angesehen.
TAA macht es blurry. Ich hab deswegen explizit 27" 4K angegeben. Mit der Auflösung auf der Größe ist mit FXAA alles super.
Hier ist ein Screenshot von The Witcher 3 mit FXAA auf 4K@27":
1774972596446.jpeg
 
ThePlayer schrieb:
@mTw|Marco Nee das nicht. Aber anscheinend allen Unkenrufen zum trotz. Scheint AMD mit RX9000 was richtig zu machen. Auch wenn FSR4 nur für RDNA4 offiziell erschienen ist.
Für den Preis liefert AMD absolut solide Karten ab, ebenso ist FSR mittlerweile richtig gut. Hätte tatsächlich nie was anderes behauptet.

Für meinen zweiten PC hatte ich mich dennoch für eine 5060ti 16GB entschieden (damals für knapl 300 Euro von Kleinanzeigen), da die Aussichten von DLSS inkl der sehr gut implementierten Frame Generation etwas positiver sehe.
 
SavageSkull schrieb:
Ich denke AMD hat durchaus FSR4 auch für RDNA2 und 3 mitentwickelt und aus irgendeinem Grund dann abgebrochen, weil ihnen das Ergebnis nicht gefallen hat. Dieser Entwicklungsstand ist halt geleakt worden.
AMD hat vor dem RDNA3 release eigentlich schon AI upscaling versprochen. also das wird 100% die INT8 version gewesen sein

warum sie es nicht offiziell veröffentlichen ist auch mehr als klar: weil FSR4 das einzige argument für eine RDNA4 karte ist. AMD hat es von der rohleistung ja nicht mal geschafft die alte gen zu überholen. da blieb dann einfach nur noch FSR4 als selling point

also sie zeigen lieber allen kunden den mittelfinger als sich einzugestehen, dass RDNA4 ein riesen flopp ist

dass FSR4 auf älteren karten problemlos funktioniert wissen wir nicht nur durch die INT8 version, sondern auch durch die FP16 emulation.
AMD könnte also sowohl eine INT8 version veröffentlichen, die nicht ganz so hübsch ist wie FP8, als auch eine FP16 version für RDNA3, die vielleicht nicht so schnell ist wie FP8 auf rdna4, aber mindestens genauso gut aussieht

aber wie gesagt, dann wäre der einzige selling point für RDNA4 weg!
 
  • Gefällt mir
Reaktionen: Pro_Bro
longusnickus schrieb:
aber wie gesagt, dann wäre der einzige selling point für RDNA4 weg!
Alles völlig richtig, bei deiner Schlussfolgerung würde ich aber widersprechen und eher auf Hanlon's Razor verweisen
 
Zurück
Oben