Test FSR 4 auf RDNA 2 & 3 im Test: Performance- und Bild­qua­li­täts-Analysen INT8 vs. FP8

Die weißen Zwischenbilder kommen in UE5-Spielen bei mir aber auch häufiger vor, die hatte ich zum Release von RDNA4, wo es noch so gut wie keine offiziellen FSR4-Games gab, in allen 3 UE5-Spielen, die ich zu dem Zeitpunkt besessen habe (Jusant, Nobody Wants to Die und Still Wakes the Deep). Dank des Steam-Herbst-Sales habe ich mir inzwischen noch ein paar weitere UE5-Titel geschossen, und von denen leidet auch Talos Principle 2 unter den White-Screens, wenn man in Optiscaler das Häkchen bei Non-Linear sRGB nicht setzt.
 
coxon schrieb:
Weil 6800XT und 7800XT fast identische Leistung haben. Oder worum geht es dir genau?
Zeitlich ist das einfach nicht machbar so viele Karten zu testen, daher werden aus dem einzelnen Generationen die Karten gewählt, die am populärsten sind. Sonst wäre der Aufwand zu groß.
Genau das ist doch der Punkt. Die 6800xt und die 7800xt sind die direkten Nachfolger. Also sind beide zu testen optimal für die Vergleichbarkeit unterschiedlicher Generationen.
Beispiel BF6 Test.
Dort haben sie die 7800xt und die 6700xt als einzige RDNA 2 Vertreter. Aber es gibt keine 7700xt als Referenz. Wenn beide Karten da wäre würde sich anbieten doch eine 6800xt statt der 6700xt zu nehmen. Damit gewinnt man doch eine Erkenntnis mehr. Das Interpolieren der Performance innerhalb einer Generation kann man dann ja immer noch grob machen
 
Zuletzt bearbeitet:
rocka81 schrieb:
Dort haben sie die 7800xt und die 6700xt als einzige RDNA 2 Vertreter. Aber es gibt keine 7700xt als Referenz. Wenn beide Karten da wäre würde sich anbieten doch eine 6800xt statt der 6700xt zu nehmen. Damit gewinnt man doch eine Erkenntnis mehr. Das Interpolieren der Performance innerhalb einer Generation kann man dann ja immer noch grob machen
Ich weiß nicht inwieweit du @DevPandi's Artikel hier auf CB verfolgst, aber eigentlich hätte die 7800XT eine 7700XT sein müssen, und die 7700XT eine 7700. Die 7900XT wäre somit die wahre 7800XT gewesen, und die 7900XTX eine 7900XT. Aber AMD hat es bei der 7000er Generation einfach komplett mit der Nomenklatur verkackt. Im Artikel findest du alles weitere dazu, es geht nämlich um die Chips.

Das ist schon alles richtig so. Und wie bereits erwähnt, ist der Aufwand zu groß um alle gewünschten Modelle zu testen.
 
  • Gefällt mir
Reaktionen: E2K3 und GOOFY71
Vielen Dank für den Test, ich denke das ich die Anwendung auf meiner 6750 xt mal probieren werde. Hoffentlich kommt das Ganze auch offiziell.
 
mario_mendel34 schrieb:
Gerade Hogwarts Legacy ist doch ein typisches Controller-Spiel. Wozu braucht man da eine Maus? Und selbst in Shootern hast du auf dem Steam Deck immer noch Gyro-Aim, was von der Präzision her einer Maus verdammt nahe kommt.
Vielleicht ists die schlechte Grafik und mini Monitor und nicht die Maus, aber ja struggle auch mit 3d Steuerung... kann spontan nicht sagen was mich mehr stört, aber ich glaube auch das Monitor und Schrottgrafik bei solchen 3d optic fokussierten Games das nicht taugt.

Aber bin auch am PC kein großer 1st Person Spieler mehr... vielleicht ist das etwas mit dem Alter oder so... Oder ihr seit einfach richtige Konsoleros und seit das alles schon langzeit gewöhnt.
Ergänzung ()

coxon schrieb:
ber eigentlich hätte die 7800XT eine 7700XT sein müssen
Das stimmt wenn man FSR4 raus rechnet... mit dessen steigt der Abstand, bin daher doch ok das ich paar Euro mehr für ne gebraucht 7800 statt 6800 (xt) gezahlt hab weil FSR4 einfach besser läuft. Stromverbrauch ist noch kleiner Vorteil. Selbst zur 9060 hätte trotzdem fast doppelte gekostet aber die ist nicht doppelt so schnell.
 
Zuletzt bearbeitet:
blackiwid schrieb:
Aber bin auch am PC kein großer 1st Person Spieler mehr... vielleicht ist das etwas mit dem Alter oder so... Oder ihr seit einfach richtige Konsoleros und seit das alles schon langzeit gewöhnt
Ganz im Gegenteil bin seid 34j PC Gamer. Aber mit zunehmend schlechteren Augen fühlt sich First Person mit Maus immer schlechter an. ich muss mittlerweile die Maus sensivität im Spiel fast auf 0 stellen und die pollinrate der Maus auf max (12000) damit sich ein Spiel flüssig anfühlt. Dazu am besten noch hohe FPS mit oder ohne FG. Da ist ein gampad entspannter da die Bewegung statischer ist. Muss man sich aber wegen dem zielen etwas dran gewöhnen. Geht aber. Ich spiele aber häufiger am Deck einfach weil es schneller geht und ich überall spielen kann.
 
Das scheint sich durchaus zu lohnen, aber wie einige Vorredner beireits meinten ist es mir das Rumgebastel nicht wert, zumal ich mit einer 7900XTX noch mehr als genug Power habe.

Sollte AMD allerdings etwas offizielles rausbringen würde ich mich natührlich sehr freuen.
PS: Danke für den tollen Test, sieht nach viel Arbeit aus.
 
Ich hab von einer 6800 XT auf eine 9070 XT gewechselt und muss ehrlicher Weise sagen, dass ich es nie bereut habe obwohl das Leistungsplus gerade mal bei etwa 50% liegt. Aber da ich meistens FSR aktiviert habe, ist es ein riesiger Qualitätsunterschied, der den Wechsel gerechtfertigt hat. Auf das Gefrickel mit den dlls habe ich in meinem Alter dann keine Lust mehr, das muss nativ so laufen.
FSR4 ist ein Meilenstein bei AMD, so viel ist sicher.
 
mario_mendel34 schrieb:
Gerade Hogwarts Legacy ist doch ein typisches Controller-Spiel. Wozu braucht man da eine Maus?
Also ich nutze generell in jedem Spiel, wo man irgendwo irgendwie manuell wohin zielen müsste, immer die Maus, weil ich das absolut 0 mit nem Analogstick hinbekomme und auch keinen Sinn darin sehe, mir diesen Skill anzueignen, wenn es nicht sein muss^^
 
  • Gefällt mir
Reaktionen: N0Thing, Quidproquo77 und Wanderwisser
Wolfgang schrieb:
Das empfehle ich schon seit diversen Monaten :) XeSS ist meistens klar besser als FSR 3.1. Das ist eben auch kein Kunststück.
Hacked FSR 4 ist dagegen klar hübscher als XeSS, wenn auch nicht so schön wie das offizielle FSR 4.
XeSS, mir gefällt diese unnatürliche Schärfe überhaupt nicht.
 
@Taxxor Ich bin ja auch Analogstick-Legastheniker und greife daher in Spielen wie den modernen Tomb Raider-Spielen auch lieber zu Tastatur und Maus. Aber in Hogwarts Legacy muss man eigentlich nicht viel Aimen, ich hatte das zum Release auf der PS5 gespielt, weil die PC-Version am Anfang so ein Bugfest war, und hatte überhaupt keine Probleme.

Und seitdem ich den Dual Sense-Controller habe, entdecke ich auch immer mehr Gyro Aim für mich. Damit bin ich fast so präzise wie mit der Maus, kann mich aber entspannter hinsetzen.
 
  • Gefällt mir
Reaktionen: coxon
@mario_mendel34 ich kann mit dem Gamepad umgehen, trotzdem bevorzuge ich oftmals die Maus. Hatte ich auch bei Hogwarts genutzt. Ich finde es auch einfach irgendwie besser mich direkt schnell und präzise in der Welt umzuschauen. Es fühlt sich freier an. Und mit einem Gamepad fühlt es sich halt so an, als ob ich, obwohl ich gesunde Beine habe, mit Krücken rumlaufe.
 
R4nd0 schrieb:
XeSS, mir gefällt diese unnatürliche Schärfe überhaupt nicht.
XeSS hat keine unnatürliche Schärfe, wenn man manuell oder per Spiel nicht nachschärft. Im Gegenteil, in Bewegung ist XeSS ziemlich unscharf.
 
coxon schrieb:
7800XT eine 7700XT sein müssen, und die 7700XT eine 7700. Die 7900XT wäre somit die wahre 7800XT gewesen, und die 7900XTX eine 7900XT. Aber AMD hat es bei der
Mit dem Wechsel von RDNA2 auf 3 kann man die Namensgebung nicht mehr ernst nehmen. Von der Logik her müsste die Nachfolgerin der 6800XT die 7900XT sein und von der 6900XT die 7900XTX. Die 7700XT/7800 XT sind eigentlich Zwischendinger.
 
Wolfgang schrieb:
werfe jetzt mal in den Raum, dass das FP16 sein könnte
Das ist hochinteressant und von der Seite habe ich das noch gar nicht betrachtet. Das könnte durchaus sein mit FP16, da sich RDNA3 eigentlich von der Performance her direkt zwischen RDNA2 und 4 einordnen müsste. Aber das ist nicht der Fall. Hier rendern beide Generationen wohl auf vergleichsweise gleichem Niveau.
 
Zuletzt bearbeitet:
blackiwid schrieb:
Du meinst FSR 3 FSR4 ist ja fast gleichwertig zu DLSS4.

Also AMD verkauft ja keine RDNA2/3 mehr, ja Händler haben die noch, aber ich hab literally die gegenteilige Meinung gehört hier, AMD released das nicht, damit die Leute ihre RDNA4 kaufen und nicht mehr alte Karten, bzw das die mit älteren schneller aufrüsten. Bei RDNA2 könnte ich das Argument ganz leicht sehen, aber auch nur leicht, denn wenn AMD wachsen will, was sie wohl sind, dann sind die Umsteiger größtenteils bisherige Nvidia Nutzer. Gleichzeitig könnte so ne Taktik AMD Leute vergraulen da sie da Nvidia Taktiken vermuten könnten.

Aber es ist doch für AMD völlig egal ob nun alte RDNA2/3 Balken kürzer sind, dagegen würde mehr Support für FSR4 in mehr Karten die Spielehersteller Motivieren FSR4 in mehr Spiele ein zu bauen.
Das Problem ist eher das bei >90% der Benchmarker nur fps Balken wichtig sind, auf BQ wie CB geht fast keiner ein. Das war auch damals zwischen DLSS3 vs FSR3 schon der Fall, da hats auch keinen interessiert das DLSS besser ausgesehen hat. Wenn jetzt plötzlich die RDNA2/3 Karten auch noch zurückfallen beim kleinen Bencher der auch keine Erklärung liefern kann gehen ein paar wohl auf die Barrikaden
Ergänzung ()

blackiwid schrieb:
mit dessen steigt der Abstand, bin daher doch ok das ich paar Euro mehr für ne gebraucht 7800 statt 6800 (xt) gezahlt hab weil FSR4 einfach besser läuft.
FSR4 gibts für diese Karte doch gar nicht offiziell, find ich schon lustig das man das als Vorteil sieht.
Ergänzung ()

GOOFY71 schrieb:
Mit dem Wechsel von RDNA2 auf 3 kann man die Namensgebung nicht mehr ernst nehmen. Von der Logik her müsste die Nachfolgerin der 6800XT die 7900XT sein und von der 6900XT die 7900XTX. Die 7700XT/7800 XT sind eigentlich Zwischendinger.
Und dann mit der 9000er auch noch das Nvidia Namensschema annehmen... Trotzdem gabs auch von 6800xt auf 7800xt quasi keine Kritik, AMD kann sich immer sehr viel erlauben
 
Zuletzt bearbeitet:
TheInvisible schrieb:
FSR4 gibts für diese Karte doch gar nicht offiziell, find ich schon lustig das man das als Vorteil sieht.
Das stimmt, das ist z.Zt. nur ein kleiner Hack. In Redstone sind vorwiegend die neuen Implementierungen für RDNA4 enthalten. Ob ein FSR4 für RDNA3 oder gar 2 mit eingebunden wird, steht noch in den Sternen. Wenn das nicht der Fall sein sollte, werden die älteren Karten treiberseitig fallengelassen. Dann geht es für mich wieder Richtung Nvidia, das ist klar.
Für mich aber noch nicht relevant, da ich mit dem neuen Dying Light- The Beast und SH f aus Zeitmangel noch bis Ende des Jahres beschäftigt bin. Hier bin ich mit dem FSR4 Hack äußerst zufrieden.
 
Zuletzt bearbeitet:
TheInvisible schrieb:
Wenn jetzt plötzlich die RDNA2/3 Karten auch noch zurückfallen beim kleinen Bencher der auch keine Erklärung liefern kann gehen ein paar wohl auf die Barrikaden
Sorry wenn du das nicht checkst das du jetzt nen anderes FSR benutzt... dann ist dir auch nimmer zu helfen. Ich mein selbst wenn du es nicht checkst brauchst dann nach veröffentlichen solch eines Blödsinn nur mal in die Kommentare rein schauen und dann kannst dir an den Kopf schlagen und dich schämend korrigieren.
Ergänzung ()

TheInvisible schrieb:
FSR4 gibts für diese Karte doch gar nicht offiziell, find ich schon lustig das man das als Vorteil sieht.
Ja der Unterschied waren vielleicht 50 Euro... ist jetzt auch nicht die Welt dazu noch der Stromverbrauch, es muss nicht sooo viel zusammen kommen um 50 Euro zu rechtfertigen.

Hab sie im April oder so gekauft für 300 + 20 Euro Käuferschutz und Versandt, die Karte ist ja auch 7% schneller wie selbst die 6800 XT zur non-xt was stromverbrauchsmäsig eher mein Ding gewesen wäre, sinds noch ein Paar % mehr seh die in dem Test hier nicht.

Also 7% in FSR3 und mit Raytracing sinds laut dem Test hier sogar 12%. Ist ja egal schenkt sich nicht viel, aber freu mich halt das meine Karte den Abstand damit vergrößert.

Hab mir hier die Zahlen grad angeschaut, die Behauptung war doch immer das RDNA2 mehr Performance verliert... wieso widerspricht der Artikel jetzt allen anderen Quellen zu dem Thema.

Ist das weil es vor dem INT8 Ding unter Linux auch nen anderen Hack gab wo das so war? RDNA3 hat doch so K.I. einheiten die RDNA2 nicht hat, werden die gar nicht benutzt?

Selbst ChatGPT hat das so mit bekommen:
FSR 4 on RDNA 2 GPUs tends to experience a more significant performance drop compared to RDNA 3, with reports indicating a performance loss of around 10% on RDNA 2 versus a smaller impact on RDNA 3
Hmm soweit ich das verstehe ist RDNA3 in FP16 und BF16 besser nicht aber in Int8 oder Int4.

CB schreibt hier aber was anderes, da RDNA2 und RDNA3 aber praktisch 100% gleich schnell ist muss man davon aus gehen das RDNA3 das hier beschriebene nicht nutzt:
RDNA 4 nutzt auf RDNA 4 das FP8-Datenformat, was die älteren Grafikkarten nicht vergleichbar schnell beschleunigen können. RDNA 3 kann potenziell dafür das bei der notwendigen Rechenleistung korrespondierende Ganzzahl-Format INT8 mittels WMAA auf den normalen Shadereinheiten benutzen, RDNA 2 kann aber auch dies nicht – hier bleibt nur FP16 als Fallback. Schlussendlich ist aber auch unklar, ob RDNA 3 überhaupt INT8 WMMA (Wave Matrix Multiply Accumulate) benutzt.

Irgendwas ist da noch komisch denn selbst wenn beide FP16 benutzten sollte da RDNA3 doppelt so viele Operationen ausführen können wie RDNA2. Wenn nicht doch RDNA2 auch dieses WMMA nutzt was es laut CB ja nicht kann, oder dieses Verfahren irgendwie so ineffizient implementiert ist das es bestenfalls nichts bringt wenn nicht sogar ne Handbremse ist weil FP16 sollte RDNA3 2x so schnell sein:
Gut ne 6950XT ist wohl auch nur ne sehr hoch übertaktete 6800 aber ne 7900xtx ist was anderes wie ne 7800xt:
Data typeRX 6950 XT FLOPS/clock/CURX 7900 XTX FLOPS/clock/CU
FP16256512

FP16 (half):
7800xt: 74.65 TFLOPS (2:1)
6800xt: 41.47 TFLOPS (2:1)

Also wenn beide über FP16 laufen sollte RDNA3 deutlich schneller sein. Also entweder wird RDNA2 wenn man die Fehler fixt langsamer werden oder RDNA3 ist irgendwie noch verkorkst.

Das könnte das zurückhalten des offiziellen Supports eher erklären, vielleicht wollen sie RDNA3 Kunden nicht vergraulen mit vermeitlich gleich schnellem RDNA2 support wenn RDNA3 schneller laufen sollte, hmm also der Fine Wine könnte noch finer werden mal schauen.
 
Zuletzt bearbeitet:
Zurück
Oben