News FSR 4: Auch Frame Generation läuft auf RDNA 3

wen anti cheat spiele laufen kommt ich auf die dunkele linux Seite, ansonsten bleib ich bei Windows
 
Lan_Party94 schrieb:
80 Frames bei Arc Raiders
Die HD530 von Intel schafft auch 80 Frames in Arc Raiders Allerdings pro Minute :mussweg:
 
  • Gefällt mir
Reaktionen: Lan_Party94 und Qyxes
Norebo schrieb:
Ach mein Gott, als ob FSR3 nicht gute Ergebnisse liefern würde...
Genauso ist es, die Ergebnisse sind selbst FSR3 Native schlechter als mit FSR4/DLSS4 Performance. :p
Norebo schrieb:
und sogar meist noch etwas schneller als FSR4 ist
Du meinst etwa halb so schnell bei gleicher BQ?
Norebo schrieb:
wenn man in 4k spielt hat man völlig akzeptable bis sehr gute Resultate vom Upscaling.
Und dafür hohe Performancekosten. Egal wie man es dreht, hier nutzt man lieber XeSS.
Norebo schrieb:
Sobald AMD FSR4 auf RDNA3 anbietet wird wieder über die Leistung gemotzt, weil es notwendigerweise langsamer sein muß als auf RDNA4 wegen der zugrundeliegenden Technik.
Dann muss AMD im Marketing den Qualitätsgewinn betonen. FSR 4 Balanced gegen FSR3 Q. Freie Wahl.
Norebo schrieb:
Dann kommt wieder irgendein Hirmsen und findet bei 64facher Verlangsamung und ungünstigen Einstellungen(...)
Diese "Hirmsen" brauchen doch nur auf FSR 3 schauen. Auch ohne Lupe. Aber da sagst du das sei ja "gut". Häh? :D
Norebo schrieb:
Und irgendeine GTX Konkurrenzkarte der NV1k Serie kann offiziell gar kein DLSS, weiß nicht wo da ein Argument enthalten ist...
Cool die 10 Jahre alte Nvidia Karte kann FSR 3 nutzen aber 2-3 Jahre alte Karten oder neue RDNA3.5 kein FSR4? Ist dann Pascal vom Featureset auf RDNA3 Niveau? xD
Norebo schrieb:
Mit dem Bruchteil an GPU-Marktanteil macht AMD einen hervorragenden Job an NV dran zu bleiben und hervorragenden Gegenwert zu bieten!
Der Gegenwart ist doch im Kontext des Themas zu bleiben (RDNA3) eben nicht da. Für das was man bezahlt hatte. Insofern auch kein guter Job. Allgemein mit RDNA4 4 schon eher, aber wann fällt da der Support?
Norebo schrieb:
Irgendwo muß man aber auch mal Erwachsen werden und einsehn, das weniger Mittel auch bedeuten, das man diese gezielter einsetzen muß...
Und fertig entwickelte Dinge einfach zu launchen und Nutzer nicht auf heißen Kohlen sitzen zu lassen - für ein Treibersupport Ende und das steht bald RDNA3 bevor, so wie AMD sich gebährt.
Norebo schrieb:
(...) wenn die Käufer nicht mehr kaufen und dazu sind bisher die wenigsten Willens und in der Lage das umzustzen und durchzuhalten!
Die Moralkaufkeule zieht doch gar nicht. 99% des Marktes wird von harten Faktoren bestimmt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: herrStreusalz, Lord B. und Cris-Cros
Cool Master schrieb:
Liegt nicht an der fehlenden Leistung sondern an UE5.
Natürlich liegt es an der fehlenden Leistung. UE5 braucht halt mehr Performance als andere Engines.
 
  • Gefällt mir
Reaktionen: Staubwedel und ReVan1199
@chainr3action

FSR3 ist alles andere als schlecht. Es fällt beim Zocken schwer Unterschiede zu nativ auszumachen. FSR4 ist jedoch (noch) besser, habe mir ein paar Vergleichsvideos angesehen. Aber da bewegt man sich schon auf hohem Niveau. Habe jedenfalls kein Problem mit meiner RDNA3 Karte bei FSR3 zu bleiben und mir den Aufwand für FSR4 zu sparen. Wenn es irgendwann auf meiner Karte ohne Aufwand anwählbar ist, wars das natürlich mit FSR3.
 
  • Gefällt mir
Reaktionen: herrStreusalz und SweetOhm
Norebo schrieb:
Ach mein Gott, als ob FSR3 nicht gute Ergebnisse liefern würde...und sogar meist noch etwas schneller als FSR4 ist
Genau das Gegenteil ist der Fall. FSR4 ist in jedem Fall und in jedem Vergleich "schneller", selbst mit inoffiziellen Weg per INT8. Denn dann reicht plötzlich FSR 4 Performance, um die Bildqualität zu erreichen, die vorher bestenfalls mit FSR 3 Quality möglich war, wenn überhaupt. Gerne schlägt man dann auch mal FSR 3.1 Native. Wie auch bei Benchmarks ist es unsinnig, nicht äquivalente Bildqualität zu vergleichen, sondern sich mit vermeintlich äquivalenten Einstellungen (unterschiedlicher Techniken) selbst zu veräppeln.

Imho ist es schon ein Stück weit irreführend, FSR 3 immer in einem Rutsch mit DLSS 3/4 und FSR 4 zu nennen. Der Unterschied bei der Qualität ist immens. Logisch, das sind technisch auch grundverschiedene Ansätze.

Zum Thema der News: Es ist eine Schande, wie unfassbar schlecht RDNA 3 gealtert ist – und zwar maßgeblich, weil AMD seinen Kunden Features künstlich vorhalten muss, die bei Nvidia jeder Besitzer ab einer RTX 2060 nutzen kann. RDNA 4 ist eine tolle Generation geworden, diese künstlichen Anreize zum Kauf hätte es nicht gebraucht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: herrStreusalz, Michael.76, Lan_Party94 und 9 andere
ev4x schrieb:
UE5 braucht halt mehr Performance als andere Engines.
Oder mehr Optimierungsarbeit seitens der Entwickler. Siehe ARC Raiders als Bsp. das die U5 auch gut performen kann auf älterer und schwächerer Hardware.
 
  • Gefällt mir
Reaktionen: Lan_Party94, SweetOhm und Cark
chainr3action schrieb:
Nein, FSR3 ist und bleibt schlecht. Egal welche Auflösung.

Stimmt doch so pauschal auch nicht! Kommt auf Spiel an und auch wie und wo man es einsetzt. Ich war auch totaler FSR gegen. Seit meine 9060xt schalte ich prakishc immer zu VSR dazu. Selbst bei NMS wo nur FSR 2.0 hat. NSM VSR 4k + FSR2 oder auch POE2 VSR 4k + FSR 3 Perfamnce > native 1080p

Und am Ende interressiert mich nur der Mehrwert. Klar FSR4 wäre noch besser. Aber das man FSR3 oder 2 nie einschalten könne, das stimmt halt so auch nicht. Bin selber überrascht wie es Spieleigenen AA Posteffeken vorziehe, weil die die Texturen verschwinden lassen, oder alles das Flimmern anfängt.

Ja auch FSR ist nicht perfekt. Aber dann schalte ich es halt aus. Aber es läuft oft halt auch erstaunlich gut und besser als Entwickler Eigene Grafik optionen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
No_Toxic_Gamer schrieb:
Oder mehr Optimierungsarbeit seitens der Entwickler. Siehe ARC Raiders als Bsp. das die U5 auch gut performen kann auf älterer und schwächerer Hardware.
ARC Raiders nutzt halt die meisten Features der UE5 nicht so wie Nanite und Lumen und etliche andere Dinge. Deswegen performt es auch besser.
 
  • Gefällt mir
Reaktionen: herrStreusalz und Grestorn
Ein Hoch auf den AMD Dev der "versehentlich" den INT8 build vom FSR4 upscaler geleaked hat. Vielleicht passiert ja mit Redstone nochmal ein ähnliches Missgeschick...

Ich habe kürzlich The Last of US 2 gespielt, da war FSR4 ein Segen, von der Leistung her absolut kein Thema auf den schnelleren RDNA3 Karten. Das RDNA3 leer ausgeht ist eine reine Business-Entscheidung, sowas finde ich zum kotzen.

Ich werde das neue FG gleich mal testen, bin gespannt.
 
  • Gefällt mir
Reaktionen: Apocalypse und Quidproquo77
@ev4x

Aber das scheint ja dann auch nur an Lumen und Nanites und nicht dann UE5 zu liegen. Beides so "Auto" funktionen, die immer viel Leistungsaufen, um sich klassisch gar nicht optimieren lassen im Sinne: " sieht gleich oder besser aus und man hat auch noch mehr FPS. " Sondern man hat 2 Möglichkeitne zwischen sieht scheiße aus bis Top, letzteres aber nur auf nen NASA PC, wen ich das richtig verstanden habe, oder liege ich da falsch? :freak:
 
  • Gefällt mir
Reaktionen: SweetOhm
@csch92 Anti Cheat spiele laufen auch unter Linux, nur nicht alle.
 
  • Gefällt mir
Reaktionen: xXDariusXx und tusen_takk
Lan_Party94 schrieb:
Nah, ich würde es nicht unbedingt als Pluspunkt sehen. Eigentlich ist es AMDs Aufgabe dies möglich zu machen und nicht die der Community.
Pluspunkt für wen? Für AMD eher nein, für Linux Ja!
 
  • Gefällt mir
Reaktionen: Lan_Party94
ev4x schrieb:
Natürlich liegt es an der fehlenden Leistung. UE5 braucht halt mehr Performance als andere Engines.

Nein brauch sie nicht.

Hier ein Entwickler der UE5 Erfahrung hat:

https://www.youtube.com/@ThreatInteractive

Hier nur ein Beispiel:

 
  • Gefällt mir
Reaktionen: SweetOhm, Cark und eXe777
Lan_Party94 schrieb:
Meine alte GTX 1070 läuft bei einem Freund heute noch und der schafft an die 80 Frames bei Arc Raiders - unter Windows wohl gemerkt. Sowas spricht ganz klar für Nvidia.
Die 1070 läuft auch noch in einem meiner Zweitsysteme - haut bei Battlefield 6 auf Med unglaubliche 90-120 Fps raus (5600X, 16GB DDR4 3200, A320 Board) - bin sehr zufrieden - einziger Wehrmutstropfen: Die Karte hat vor 3 Wochen das letzte Treiberupdate gesehen, wird keine neuen mehr für die Karte geben. :( (Ausser vielleicht irgendwann in ein paar Jahren mal einen Anniversary Treiber falls Nvidia Bock hat).
 
  • Gefällt mir
Reaktionen: Lan_Party94
Cool Master schrieb:
Nein brauch sie nicht.

Hier ein Entwickler der UE5 Erfahrung hat:

https://www.youtube.com/@ThreatInteractive

Hier nur ein Beispiel:


Hört auf diesem hoffnungslos vom Dunning Kruger effekt geplagten Besserwisser eine Bühne zu bieten. Der labert einen Unsinn, dass es nicht mehr feierlich ist. Bildet sich ein, es besser zu wissen als die gesamte Industrie zusammen. Vor allem fängt er dann noch an, sämtliche TAA Methoden grundsätzlich in Frage zu stellen und kommt immer mit seinem grottigen SMAA daher, welches in noch keinem Spiel das jemals existiert hat auch nur ansatzweise gut aussah. Und dann nutzt er immer sein Müll SMAA um irgendwelche Aliasing Probleme aufzuzeigen. Da kannste dir nur an den Kopf fassen.

Er spricht meistens valide Problemstellen an, ja. Es gab schon immer diverse Probleme. Heute wie damals. Aber seine Argumentationen sind einfach nur polemisch, irreführend und häufig komplett falsch.

Das Problem ist auch weniger die UE5. Denn früher oder später werden die Konsolen maximal ausgelastet, so dass Spiele auf der Konsole eben nur noch mit 900p upscaled via FSR/TSR @1440p gerendert werden und dann nochmal vom Display Scaler auf ein 4K Bild aufgeblasen werden. Das wirkt sich natürlich 1:1 auf die Anforderungen am PC aus.

Man nutzt schon immer sehr agressives Upscaling auf Konsolen und mit FSR und TSR ist eben 900p@1440p ein guter Kompromiss, den viele Studios zunehmend als sinnvoll erachten. Das schaufelt performance für aufwändigere Grafikfeatures frei. Ob die UE5 jetzt gut oder schlecht optimiert ist würde an diesem Performanceprofil nichts ändern. Wäre sie besser optimiert, würde es tendenziell auch bessere Grafik geben. Aber nicht unbedingt bessere Performance.

Jetzt ist es aber leider so, dass mittelklasse PC Hardware lange zeit nicht viel schneller als die aktuellen Konsolen waren. Dazu dann der Mining Boom. Lange Zeit konnte man nur GPUs kaufen, die je nach Budget vielleicht 0, 30 oder mal 60% schneller waren. Man musste schon High End für 1000+€ kaufen, wenn man 2x oder mehr wollte. Das heißt, sehr viele Spieler die in den letzten Jahren eine mittelklasse GPU gekauft haben, sitzen aktuell auf Grafikkarten, die sich nicht wirklich signifikant von der Leistung einer Konsole absetzen können.

Es ist daher ABSOLUT LOGISCH, dass Spieler die solche Karten besitzen sich über die Performance beschweren, oder aber Spieler die 1000+€ für eine GPU ausgegeben haben, erwarten dass die Karte sehr viel höhere FPS in einem Konsolenport liefert. Aber wenn selbst die Oberklasse karte nur 2-2,5x so schnell ist wie eine Konsole (die RTX4080 liegt bei ca 2,5x) dann ist das angesichts des Preises nicht besonders viel Performance die man da bekommt.

Ich hab den Vergleich hier schon sehr häufig gebracht, aber man braucht sich nur mal die PS4 und Xbox One Ära anschauen. Die PS4 kam November 2013 raus. Bereits im September 2014 gab es mit der GTX970 eine Grafikkarte die für 350€ schon 2,5x so schnell wie die PS4 war und diese Spiele dann natürlich mit absoluter Leichtigkeit stemmen konnte. Das Performanceniveau auf PC war somit in den Jahren danach SEEERH viel höher als heute.

Hattest du dir damals eine GTX970 oder später die GTX1060 gekauft, dann sind diese Grafikkarten mit den Spielen ähnlich gut zurecht gekommen, wie wenn du dir heute eine RTX4080 oder RTX5070ti kaufen würdest.

Man muss natürlich dazu sagen, dass mittlerweile nach dem Release von RDNA4 und den Preissenkungen das Preis/Leistungsverhältnis im letzten Jahr nochmal nen ordentlichen Sprung gemacht hat. Aber gemessen an früher, also gemessen an den PS4 zeiten ist das immernoch viel zu wenig Leistung für viel zu viel Geld, relativ zu einer aktuellen Konsole. Also ja, will man ne GPU, die 2x oder 3x so schnell wie eine Konsole ist, muss man heutzutage ein vielfaches für die GPU bezahlen. Alle die heute wie damals Mittelklasse kaufen und ihr Budget nicht vervielfacht haben müssen mit effektiv weniger Performance auskommen. Das führt freilich zu frust und dem Vorwurf, dass Spiele besonders schlecht optimiert sind. Das trifft auf einige Beispiele durchaus zu, aber ich würde da eher ein Pioneers of Pagonia nennen, das ungerechtfertigt hohe Anforderungen hat, weniger ein UE5 spiel... Bei UE5 würde ich aktuell eher das Traversal und Shader stutter bemängeln. Das ist mMn. das einzige richtige Problem.
Die Grundsätzlichen Anforderungen finde ich gerechtfertigt. Lumen ist Software Raytracing. Nanite ermöglicht eine extrem hohe Detaildichte ohne LoD. Natürlich kostet das Performance. Für das was damit möglich ist sind die Features sehr effizient. Die Alternativen wären teurer oder würden schlechter aussehen. Aber die Grundanforderungen steigen natürlich trotzdem, wenn diese Features genutzt werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: JohnMcLane87, Apocalypse, Theuth und 2 andere
Die kann doch Vulkan oder? das könnte gut sein, das die dann mal mit dem offenen NVK Treiber unter Linux noch lange gut weiter laufen könnte (wenn der mal fertig ist)
 
Die müssen einfach aufhören Grafikkarten zu verkaufen, dann haben die keine Kunden mehr, die Treiber dafür schreiben und die Karten nutzen, ganz einfach ..
 
Was hat FG genau mit FSR4 zu tun?
AMD Frame generation existierte bereits zuvor oder wie spezifisch unterscheidet sich das "alte" frame gen vom FSR4 frame gen?

AMD frame gen kann selbst auf Konsolen genutzt werden

Ende August hatte AMD – nach längerer Zeit – das SDK veröffentlicht und in ersten Downloads war neben dem bekannten FP8-Pfad auch ein INT8-Pfad vorhanden, der zumindest belegt, dass AMD an einer Lösung für RDNA-3-Karten gearbeitet hat. ComputerBase hat sich dem Thema angenommen und zeigt, wie FSR 4 dank dem SDK auch auf RDNA 2 und RDNA 3 Grafikkarten läuft.

Möglich, da das PSSR Upscaling der PS5 Pro aber eh durch das aktuelle FSR ersetzt werden soll und diese kein FP8 unterstützt, wurden Anpassungen für eine APU älterer Generation nötig.
Diese können aber separat für das jeweilige Spiel erfolgen und müssen nicht zwingend übergreifend durch einen Treiber geschehen wie bei GPUs üblich.

https://www.play3.de/2025/09/11/ps5-pro-pssr-upgrade-auf-fsr4-basis-sony-meldet-sich-zu-wort/

"Anpassung von Spielen offenbar notwendig

Noch ist unklar, wie die PS5 Pro die auf FSR 4 basierenden Funktionen nutzen wird. Zwar soll das System KI-gestützte Superauflösung und Framegenerierung ermöglichen, doch nach Angaben von AMD-Insider KeplerL2 fehlen der Konsole bestimmte Hardware-Funktionen. So unterstütze sie keine FP8-Berechnungen, die für den vollen Einsatz von RDNA-4-GPUs erforderlich seien.

Das bedeutet, dass Anpassungen auf technischer Ebene nötig sind, um FSR 4 in die PS5 Pro einzubinden, was durch Sonys jüngste Aussagen untermauert wird. Zudem dürfte es erforderlich sein, bestehende Spiele nachträglich zu patchen, da die aktuelle Version von PSSR keine systemweiten DLL-Austausche zulässt.

Das wiederum heißt: Entwicklerstudios müssen ihre Spiele womöglich anpassen, um die Vorteile des neuen Upscalers auszuschöpfen. Hierzu hat sich Sony bislang nicht geäußert."
 
Zurück
Oben