Test FSR 4 auf RDNA 2 & 3 im Test: Performance- und Bild­qua­li­täts-Analysen INT8 vs. FP8

Tharan schrieb:
Persönlich bin ich überzeugt, dass das irgendwann offiziell kommen wird,
Da wäre ich mir nicht so sicher. Das ist der Grund, warum ich meine 7800XT sofort nach Bekanntwerden, das
FSR4 nicht für RDNA 2/3 kommen wird, verkauft habe.
Die Lösung gibt es von AMD zu kaufen, RX 9060XT, 9070, 9070XT und vielleicht demnächst mit RX 9080XT.
Ich kann mir nur schwerlich vorstellen, dass AMD hier noch wirklich viel Arbeit reinsteckt.
Na dann schauen wir mal, was AMD mit den nächsten Treibern liefert, Redstone steht ja auch an.

Für mich liest sich der Test so, dass es darauf hinausläuft, dass AMD nichts machen wird.
Ich war damals so verärgert über AMD, dass ich garantiert eine 5070 TI gekauft hätte, wären damals
nicht noch über 1000.- Euro fällig gewesen.
 
  • Gefällt mir
Reaktionen: Pro_Bro
Falls es jemals "offiziell" kommen sollte, dann spät bis pervers spät. Wie will man sonst die aktuelle Grafikartengeneration bestmöglich verkaufen? Da beißt sich der Hund in den Schwanz.

Dieses Gefrickel mit den *.dll Dateien- absolut NULL Bock und Ambitionen. Sowas muss per 1-Click im Treiber oder im Spiel funktionieren, wenn man eine 12 Stundenschicht hinter sich hat und die Kinder versorgt sind. Und natürlich VAC-Secure bitte. Aktuell ist das nicht zu 100% gegeben. Danke für den Testaufwand und die klare Warnung davor.

Für mich wird die grüne Seite zunehmend attraktiver. Um Welten sogar.
 
Loopman schrieb:
Wusste gar nicht, dass hier nur die "Zielgruppe" mitreden darf... 🙄
Naja, wenn man es genau nimmt, hast du nur gesagt, du hast kein Bock auf Gefrickel.
Weiß nicht ob das jetzt so der Beitrag is der viel beiträgt. 😁
 
Jeder kann machen und lesen, was er will, ... but
Wer nun schon ne RDNA3/2 hat braucht halt nicht aufrüsten sondern kann mal die schönen Artikel auf CB lesen+probieren.
Übrigens nutzen auch ältere NV-Grakas das AMD-FG per Optiscaler und da hat sich auch noch Keiner beschwert.

Im Thread nachfragen, wenn was nicht klappt is auch nicht sooo kompliziert.

btw.
Hat Wolfgang eigentlich auch mal das mit Optiscaler per asi-loader probiert?
https://www.computerbase.de/forum/t...radeon-rx-7000-rx-6000-nutzen.2252289/page-17
 
Northstar2710 schrieb:
Könnte es nicht sein das die init8 version die fp8 version in der dll ersetzt?

also zumindest was die Fps angeht funktioniert es schon bei meiner 9060xt
Da wäre ich vorsichtig.
Was ich so mitbekommen habe, ist die INT8-Version von FSR 4 nicht auf dem Stand der FP8-Variante, letztere ist wohl neuer. Wer weiß, wann AMD die Entwicklung der INT8-Variante abgebrochen hat bzw. wie weit sie da schon waren bei der geleakten Datei. Die Unterschiede (sowohl bei der Qualität als auch der Performance) kann auch schon daher kommen.

Davon abgesehen...wir alle (ich inklusive) schreiben immer munter von INT 8 bei der FSR-4-Variante von RDNA 2/3. Aber ist das überhaupt INT8? Weil dann müsste RDNA 3 schneller als RDNA 2 sein, was es aber nicht ist. Ich werfe jetzt mal in den Raum, dass das FP16 sein könnte und nicht INT8, das würde die gleich starke Performance von RDNA 2 und RDNA 3 erklären. Das hat keinen Einfluss auf das Endergebnis und ist schlussendlich auch egal, aber doch ganz interessant so weit :)
Gaugaumera schrieb:
Weil FSR4 aktuell einfach beim großteil der Spiele gefrickel ist

Falls das Spiel kein FSR 3.1 hat geht über AMD Tools halt einfach kein FSR4. Und sooo viele FSR 3.1 Spiele gibts wirklich nicht.

Mit dazu kommt, dass es viele Spiele gibt die DLSS eingebaut bekommen, aber garkein FSR. AMDs position ist schlecht und weit gedacht haben sie auch nicht.
Nvidia hat das ganze Thema Upscaling wesentlich schöner/massentauglicher gelöst.
AMD und Nvidia haben es jetzt am Ende genau gleich eglöst, AMD war nur (wieder einmal bei dem Thema) viel zu spät dran. Das ist Nvidias Vorteil, ab einer gewissen Version von DLSS 3 haben sie ihren Upgrade-Pfad bereits vorgesehen, AMD hat das erst deutlich später...Aber immerhin, alle neuen Spiele haben eigentlich FSR 3.1.
KurzGedacht schrieb:
Naja. Definiere Profis. Meine Oma kann das nicht, meine Schwester die nicht mal wirklich zockt vermutlich schon. Man brauch halt minimale Grundkenntnisse bzgl der Bedienung von Windows und muss googlen können.
Das würde ich jetzt nicht unter "Profi" einordnen.
Also ich bin teils ziemlich irre dabei geworden, da es halt auch immer mal wieder anders geht. Und ich halte mich jetzt nicht sonderlich Gewand bei sowas, aber wenn ich bei sowas Schwierigkeiten habe, haben es glaube ich 95 Prozent der PC-Spieler auch (bzw. noch deutlich größere). Das ist nichts, was man einem einfachen PC-Gamer zumuten kann.
 
  • Gefällt mir
Reaktionen: Pro_Bro, Deinorius, V_182 und eine weitere Person
GerryB schrieb:
Wer nutzt FSR4 in NATIV = Niemand.
Da passt die Milchmädchenrechnung nicht, weil man versuchen wird auf Balanced oder Performance zu gehen.
Ob man es Nativ, Quality, Balanced oder Performance nutzt, ist ja relativ egal, im Sinne des Performanceverlusts durch den Algorithmus ist es sogar eher so, dass aggressivere Stufen mehr Renderzeit kosten, als FSR4 Native.

Der Performancegewinn durch die reduzierte Auflösung ist bei den unterschiedlichen Karten weitestgehend immer gleich, der Performanceverlust durch den Algorithmus aber bei RDNA2+3 höher.
 
Interessant, im Standbild finde ich FSR 4 auf RDNA 3 deutlich schöner als auf RDNA 4. Dafür ist es in Bewegung eklig mit dem Hinterherziehen. Dafür sieht es halt auf RDNA 4 nicht gut aus. Für mich bleibt Upscaling hier weiterhin nicht brauchbar.

Danke für den enormen Testaufwand!
 
coxon schrieb:
Kann ich nur empfehlen. Die XTX hat genug Rohleistung um die schlechtere Performance abzufangen.
Das reicht locker, nun habe ich bei weitem nicht so viele Games getestet wie (@Wolfgang), aber im Durchschnitt verliert eine 7900XTX durchschnittlich ca.10% Renderleistung auf der derzeitig verfügbaren INT8 Datei im Gegensatz zu der FP8 Datei auf einer 9070XT. Verglichen habe ich vorwiegend Dying Light - The Beast, SH f und CP2077. Bei vielen anderen Games habe ich einfach nur ausprobiert, ob es auf INT8 Grafikfehler auf RDNA3 gibt. Der einzige massive Performance-Ausreißer ist hier Dying Light - The Beast, hier rendert eine 7900XT@stock so schnell wie eine 9070XT auf FSR4. Das heisst, als XTX sogar entschieden schneller als eine 9070XT in der jeweilig vergleichbaren FSR4 Umgebung, also INT8 zu FP8 samt Upscaling-Faktor. INT8 kann normalerweise auch auf RDNA4 nicht laufen. Qualitätsunterschiede von INT8 zu FP8 sind mir so auf den ersten Blick nicht aufgefallen, allerdings habe ich auch keine Vergleiche mit Zoom durchgeführt.
Aber die Unterschiede sind natürlich da, vielleicht gibt es eventuell irgendwann noch eine andere und weiter verbesserte INT8 Datei seitens AMD, zumindest für RDNA3.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: coxon
usernamehere schrieb:
Interessant, im Standbild finde ich FSR 4 auf RDNA 3 deutlich schöner als auf RDNA 4. Dafür ist es in Bewegung eklig mit dem Hinterherziehen. Dafür sieht es halt auf RDNA 4 nicht gut aus
? Ok jeder hat seine Meinung. Aber hast du FSR4 auf RDNA4 schonmal selbst ausprobiert? Oder beziehst du dich nur auf Videos?
Ergänzung ()

GOOFY71 schrieb:
INT8 kann normalerweise auch auf RDNA4 nicht laufen.
Und warum?
 
Ich warte und hoffe, dass AMD dieses FSR4 light auch die RDN2-Grafikkarten rausbringt.

Dabei kann ich mir nur schwer vorstellen, dass die Bildqualität so viel besser sein soll - RDR2 nutzt soweit ich in Erinnerung hab "nur" FSR2 - und sieht meiner Meinung nach genauso hübsch aus wie die native Version.
 
EdgarTheFace schrieb:
Ich frage mich, ob bei den Benchmarks die richtigen Dinge und Einheiten gemessen werden.
Der prozentuale Leistungsunterschied ist unterschiedlich je nach originaler Bildrate … Aber wie sieht es mit der Latenz bzw. den FrameTimes aus? Benötigt es ggf. immer die gleiche Zeit?

Frametime und Performance in FPS sind doch ein und die selbe mathematische Funktion.

Wenn die Frametime länger wird, dann werden die FPS niedriger und natürlich steigt dann auch die Latenz.
Aber du gewinnst ja auch FPS und verkürzt die Frametime indem du die Renderauflösung reduzierst, dadurch reduzierst du auch wieder die Latenz. Unterm strich hast du mit Upscaling natürlich bessere FPS, somit eine Kürzere Frametime und bessere Latenzen, auch wenn der Algorithmus selbst etwas Frametime kostet. Das ist ja der Sinn der Sache.


Das kann dann z.B. so aussehen.

Ein Spiel das in nativen 4K gerendert wird läuft mit 16,6 ms Frametime. Das sind 60 FPS.
Wenn du jetzt die Renderauflösung reduzierst, dann sinkt die Frametime auf meinetwegen 10 ms, die FPS steigen somit auf 100 FPS
Wenn du jetzt FSR nutzt, um die geringe Renderauflösung auf 4K hochzuskalieren und FSR braucht auf einer bestimmten GPU 2 ms Renderzeit, dann steigt die Frametime wieder etwas an, in dem Fall auf 12 ms. Das entspricht dann 83 FPS.
Du bist also von 60 FPS in nativen 4K auf 83 FPS mit Upscaling gekommen, hättest ohne Upscaling und nur mit der geringeren Renderauflösung 100 FPS gehabt. Dafür sieht das Bild mit Upscaling gleich oder besser aus als die native Variante mit weniger FPS. Unterm Strich also ein Gewinn in jeder Hinsicht.

Also ja, natürlich, die Frametime entspricht immer 1:1 den FPS und die FPS bzw. die Frametime hat maßgeblich Einfluss auf die Gesamtsystemlatenz.
Es macht nur wenig Sinn, den performanceverlust eines Grafikeffekts in FPS anzugeben oder in Prozenten, weil diese sich immer unterscheiden, je nachdem von welcher Framerate man ausgeht.

Wenn man bei 60 FPS mit 16,6 ms Frametime 2 ms aufaddiert landet man bei 18,66 ms 53,6 FPS. Also einem Performanceverlust von 10,6% weniger FPS.

Wenn man jedoch bei 120 FPS mit 8,3 ms Frametime 2ms aufaddiert, dann landet man bei 10,3ms, also 97 FPS, was einem Performanceverlust von 19,2% weniger FPS entspricht.

Und das ist auch der Grund, warum die Kosten jeglicher Grafikeffekte oder generell alles was irgendwie berechnet wird immer in Millisekunden auf einer bestimmten GPU angegeben werden. Zumindest Entwickler rechnen immer so. Denn den performanceverlust in Prozent oder FPS anzugeben hat einfach keinerlei Aussagekraft. Der Wert ist unbrauchbar um generell sagen zu können, wie teuer eine Berechnung ist.

Denn die Millisekunden bleiben dann auf der jeweiligen GPU immer identisch. Die Auswirkungen auf die Performance sind jedoch völlig unterschiedlich, je nachdem wie hoch die restliche Frametime ist. 2 ms zusätzliche Frametime wirken sich bei 33,3 ms Frametime kaum aus. Bei 8 ms aber schon.


Bei Nvidia in den Entwicklerguidelines wird das z.B. so angegeben:
1760369681157.png


Das sind noch die Werte für DLSS3, bin gerade zu faul, das für DLSS4 rauszusuchen.


Und ja, die Latenzen die Frame Generation verursacht sind nochmal was anderes.
Frame Generation hat zwei "arten" von Latenz. Einmal ganz normal die Renderkosten, die die Frametime Reduzieren. Da sieht man dann dass bei z.B. 60 FPS + aktiviertem Frame Gen z.B. nur 100 FPS auf dem zähler stehen. Das liegt daran, weil aufgrund der Rechenkosten die basis Framerate von 60 auf 50 FPS gesunken ist. Funktioniert hier genauso wie gerade erklärt. Die Frame Generation kostet natürlich performance, so wie der Upscaling Algorithmus auch.

Zusätzlich hat man bei Frame Generation aber noch einen Delay. Man verzögert die Bildausgabe mindestens um einen halben Frame um die Daten für die Zwischenbildberechnung zu bekommen. Das hat dann aber wiederum keine Auswirkungen auf die Frametime, sondern die Frames werden auf dem Zeitstrahl einfach nach hinten verschoben, die Kadenz, welche durch die Frametime bestimmt wird bleibt dann aber unverändert.


Gut, belassen wirs an der Stelle dabei. :D Im Grunde alles kein Hexenwerk, aber es ist nicht einfach in wenigen Worten zu erklären.
 
  • Gefällt mir
Reaktionen: Moerf, Blekota, Quidproquo77 und 3 andere
Spätestens mit RDNA3 hätte AMD auf zukunftsfähige Upscaling Hardware setzen müssen. Das war die zweite große Fehlentscheidung beim Design, neben dem unausgereiften Chiplet Ansatz.
Vermutlich warten wir so lange auf Redstone weil AMD mit Hochdruck daran arbeitet, FSR4 irgendwie mit älteren Generationen lauffähig zu machen.
 
  • Gefällt mir
Reaktionen: Mario2002
Northstar2710 schrieb:
Im direkten Vergleich hatte ich hier Probleme in modifizierten Games, als ich von einer RDNA3 Karte auf RDNA4 gewechselt bin. Ich musste hier Optiscaler oder INT8 wieder entfernen. Zurück war es dann wieder einfach.
Edit:
Hat das einmal jemand anderes hier ausprobiert und kann er das eventuell bestätigen?
 
Zuletzt bearbeitet:
Northstar2710 schrieb:
? Ok jeder hat seine Meinung. Aber hast du FSR4 auf RDNA4 schonmal selbst ausprobiert? Oder beziehst du dich nur auf Videos?
Natürlich beziehe ich mich hier auf den Beitrag, unter dem ich kommentiere. Meines Wissens nach hat meine 3090 weder RDNA 3 noch 4.
 
btw.
Warum hier im Thread jetzt Leute mit 120fps um die Ecke kommen ist schon komisch.(e-sportler oder 5090-Besitzer?)
Im Parcour ist die 6800xt knapp bei 60fps Durchschnitt@1440p.
(ne 6700xt sollte in 1080p ähnlich sein)

Insofern sind 2,5ms, lt. Wolfgang für FSR4 = Banane.(fallen nicht entscheidend ins Gewicht)
Muss halt Jeder selbst probieren, ob die Fps dann noch für ein smoothes FG reichen.

edit: extra für Wolfgang habe ich mal den prozentualen FSR-Anteil der Frametime der 40fps-6700xt abgeschätzt
nach m.E. sogar leicht besser als bei der größeren 60fps-6800xt (siehe Anhang)
Das liegt an den niedrigen Fps der 6700xt!
 

Anhänge

  • 1440p.JPG
    1440p.JPG
    45 KB · Aufrufe: 69
Zuletzt bearbeitet:
Twin_Four schrieb:
Ich will doch nur zocken, und nicht noch eine Studienarbeit zum Thema Bildverbesserung durcharbeiten.
Genau wegen solchen Basteleien habe ich noch einen PC. Wenn ich nur zocken will, schmeiße ich die Konsole an (duck und weg).

flaphoschi schrieb:
Ich hoffe das wir für Linux nativ umgesetzt, offiziell im amdgpu Treiber des Kernel bzw. Mesa. Das Steamdeck und jedes ThinkPad nehmen das Genre mit.
Auf dem Steam Deck geht das schon sehr einfach mit dem Decky-Framegen-Plugin, zwar nicht offiziell, aber nicht viel mehr als ein Toggle.

blackiwid schrieb:
Versteh nicht wie man solche Spiele ohne Maus spielen kann...
Gerade Hogwarts Legacy ist doch ein typisches Controller-Spiel. Wozu braucht man da eine Maus? Und selbst in Shootern hast du auf dem Steam Deck immer noch Gyro-Aim, was von der Präzision her einer Maus verdammt nahe kommt.

@Wolfgang Spitzen Artikel, danke für die Arbeit. Jetzt muss ich mir mal noch die Videos ansehen.👍
 
Wolfgang schrieb:
Mit schlechterer Bildqualität gegenüber dem „vollen FSR 4“ auf RDNA 4, die der von FSR 3.1 aber weit überlegen ist. Und mit einer etwas schlechteren Performance gegenüber dem Original, ohne dass der Unterschied sonderlich groß ist.
sollen sie's offiziell machen, FSR 3.5 bietet sich dann ja als Bezeichnung an
 
@hennich die geleakten Dateien zeigen ja, dass das nicht unmöglich ist und AMD daran zumindest gearbeitet hat. Die Antwort auf deine Frage erfahren wir wahrscheinlich in den nächsten 2 Monaten.
 
  • Gefällt mir
Reaktionen: hennich
GOOFY71 schrieb:
Im direkten Vergleich hatte ich hier Probleme in modifizierten Games, als ich von einer RDNA3 Karte auf RDNA4 gewechselt bin.
In wie weit waren denn die Games modifiziert? Game + mods? oder meinst du mit modifizierung Optiscaler mit init8 dll?

Mit RDNA4 nutzt man nicht die modifizierte FSR.dll für RDNA3. Du hast auf jedenfall performance einbussen. Aber Optiscaler läuft genauso gut mit RDNA4 wie mit RDNA3.
 
Zurück
Oben