Test AMD FSR Redstone im Test: AI Frame Generation auf FPS, Bildqualität & Latenz untersucht

Mal grundsätzlich meine Gedanken zu dieser Art von Bild- und FPS-Verbesserung, ohne ins Detail zu gehen:

Schön, da wird unglaublich viel Energie (Hirnschmalz und Technik) hineingesteckt, um fehlende Leistung (FPS) und fehlende Bildqualität (z.B. Aliasing) mit Tricks und Kniffen und KI und Logarithmen wegzumogeln - oder weniger drastisch ausgedrückt: wegzuschätzen.

Das Ergebnis scheint hier und da mal ganz gut, mal weniger gut zu funktionieren. Unabhängig von AMD oder nVidia, auch wenn letztere hier deutlich die Nase vorn haben.

Aber grundsätzlich mißfällt mir das Konzept an sich, vor allem da es uns derzeit als die einzige Lösung präsentiert wird. Vor dem Hintergrund, dass wirkliche Optimierung von Software (und Spielen) in Form von wirklicher effizenter Leistungssteigerung wegen Deadlines und Finanzknüppeln komplett in den Hintergrund gerückt ist, bekommt es zusätzlich einen weiteren bitteren Beigeschmack.

Das kann doch nicht der Anspruch von uns Spielern sein, das so hinzunehmen. KI sollte nicht hingeschlampte Software optimieren müssen.
 
  • Gefällt mir
Reaktionen: GreitZ, danyundsahne, NoNameNoHonor und 2 andere
Naja, KI ist ja kein Allheilmittel. Wenn erst DLSS Performance dafür nötig ist, das ein Spiel knapp 60FPS erreicht bei einer Grafik die nicht nachvollziehbar ist mit einer Grafikkarte für knapp 1200€, dann ist es ja kein Geheimnis, dass das Spiel Schrott ist. Einfach solche Titel meiden und gut ist. Man muss da natürlich nicht übertreiben, solche Sachen sollen natürlich nicht nur uns Gamern helfen sondern auch den Entwicklern. Bringt natürlich alles nichts wenn der Entwickler sich dann gar keine Mühe mehr gibt und z.B ohne RT das Wasser 0 Reflexion hat.
 
Marflowah schrieb:
Mal grundsätzlich meine Gedanken zu dieser Art von Bild- und FPS-Verbesserung, ohne ins Detail zu gehen:

Schön, da wird unglaublich viel Energie (Hirnschmalz und Technik) hineingesteckt, um fehlende Leistung (FPS) und fehlende Bildqualität (z.B. Aliasing) mit Tricks und Kniffen und KI und Logarithmen wegzumogeln - oder weniger drastisch ausgedrückt: wegzuschätzen.

Das Ergebnis scheint hier und da mal ganz gut, mal weniger gut zu funktionieren. Unabhängig von AMD oder nVidia, auch wenn letztere hier deutlich die Nase vorn haben.

Aber grundsätzlich mißfällt mir das Konzept an sich, vor allem da es uns derzeit als die einzige Lösung präsentiert wird. Vor dem Hintergrund, dass wirkliche Optimierung von Software (und Spielen) in Form von wirklicher effizenter Leistungssteigerung wegen Deadlines und Finanzknüppeln komplett in den Hintergrund gerückt ist, bekommt es zusätzlich einen weiteren bitteren Beigeschmack.

Das kann doch nicht der Anspruch von uns Spielern sein, das so hinzunehmen. KI sollte nicht hingeschlampte Software optimieren müssen.
Muss ich Dir Recht geben. FSR / DLSS und FG ist ein zweischneidiges Schwert. Mag für den Spieler auf den errsten Blick toll sein, aber wie Du richtig sagst, werden immer mehr Spiele schlecht optimiert.

Wenn ich mir die Anforderungen so einiger aktueller Spiele anschaue und dazu das was sie an Grafik-"Pracht" auf den Bildschirm geben, kommt mir das Brechen. Selbst City-Builder mit simpler Klötzchengrafik oder Pixelart etc. benötigen starke Hardware und sehen dabei schlechter aus als 10 Jahre alte Kassiker.

Entwickler sparen sich die Optimierungszeit (Geld) und wälzen das Problem auf den Spieler ab, der dann mit diversen AI-Hilfsmitteln noch gerade angenehme Bildraten hat. Ob das so erstrebenswert ist?
 
  • Gefällt mir
Reaktionen: Marflowah und Do Berek
Tja, da stehe ich nun wieder vor meinem Problem der Entscheidungsfindung. Ich hatte auf einen großen Wurf mit AMD Redstone gehofft. Statt dessen gibt es gut Ansätze mit wie immer unvorhergesehenen Probleme bei der Ausführung.

Was die Entscheidungsfindung anbelangt, da schwanke ich nun zwischen einer Asus 5070Ti TUF (für 839€), die mit reduzierter Spannung bei 3 GHz läuft oder aber eine 9070XT Prime (die ich aber noch nicht ausprobiert habe) die preislich 210€ günstiger als die 5070Ti TUF ist oder aber eine (ebenfalls noch nicht ausprobierte) 9070XT TUF, die dann preislich 110€ unter der 5070TI liegt. Also 839€>729€>629€. Probleme die noch auftreten könnten, wären die Laustärke (insbesondere der Prime) und deutliches Spulenpfeifen, was im Gegensatz zu den Tests hier auf CB schon deutlich hörbar war bei den getesteten 9070 war. Von der Leistung her sehe ich die 5070 Ti mit 3 GHz dann doch etwas vorne, da ich bei der XT wohl wegen Stromverbrauch und Laustärke die Leistung mit PT und UV im Zaum halten muss.

In meinem Hauptspiel dem LS25 macht grundsätzlich FSR4 (ohne FG) eine sehr gute Figur. DLSS bzw. DLAA auch, aber Frame Generation funktioniert dort nicht richtig, das Bild fängt an zu flackern. Mit FSR4 FG geht auf AMD-Karten die CPU-Last so hoch, dass von der FPS-Steigerung nichts mehr übrig bleibt, ja teilweise sogar weniger FPS ausgegeben werden. Kurioserweise läuft FSR4 FG mit Tricks und DLL-Austausch auch auf der Geforce und hat dann die deutlich stabilere Bildgenerierung als auf AMD-Hardware.

Ich hatte ja gehofft, dass AMD mit Redstone auf DLSS schlussendlich aufholt, statt neue Namen zu verwenden und neue Probleme zu schaffen. Für mich ist es dann jetzt lediglich der Preisunterschied, ob 5070TI oder 9070XT. Eigentlich möchte ich gerne zu AMD wechseln, aber die Vernunft sagte, ich solle lieber bei Nvidia bleiben. Aber egal wie ich mich entscheide, das andere wird dann sowieso vom Kopf her das bessere sein. 🤔

Was meint ihr?
 
naja im Endeffekt ist es ja fast egal. Sagt ja dann schon genug über den Entwickler aus. Die würden auch mit 25 FPS abliefern.
Ergänzung ()

TopAce888 schrieb:
Für mich ist es dann jetzt lediglich der Preisunterschied, ob 5070TI oder 9070XT. Eigentlich möchte ich gerne zu AMD wechseln, aber die Vernunft sagte, ich solle lieber bei Nvidia bleiben. Aber egal wie ich mich entscheide, das andere wird dann sowieso vom Kopf her das bessere sein. 🤔

Was meint ihr?

Ich stand ja auch davor (habe aber noch eine 6800XT im Haushalt)
Ich habe für meine 5070 TI sogar 970€ bezahlt… die ist aber dafür perfekt. Weder Spulenfiepen und vom Lüfter auch super leise. Ist. Natürlich heftig wenn die 9070 XT fast 300€ günstiger ist….dafür gibt’s schon Karten 🫣
Naja dafür ist die halt für eine 5070 TI perfekt….

Warum es trotzdem eine NVIDIA geworden ist?
Ich wollte Features jetzt nutzen und nicht in 2-3 Jahren. Das war eigentlich das ausschlaggebende und im Verkauf sind die etwas stabiler.

Würde nur noch zu AMD greifen, wenn man Linux nutzen möchte. Naja oder für Systeme für die Kids. Da wäre mir der Aufpreis Zuviel 😅
 
Zuletzt bearbeitet:
TopAce888 schrieb:
Ist egal. Beide gut. Ich gehe gerne nach dem Preis und da ist AMD halt insgesamt besser. Andere gehen nach vermeintlich besseren Upsampling oder, nur bei HWU zu sehenden, Frame Pacing Geschichten. Ich fand schon FSR3.1 nicht so schlimm beim Preisunterschied, mit FSR4 wird es dann noch mehr zum No-Brainer. Falsch machst du am Ende mit beiden Produkten ja eh nichts. Lange Rede, gar kein Sinn, wenn schon egal, dann geh ich nach Preis. Ich wollte die 9070XT mit einer 4 vorne im Preis ersteigern. Das wird nicht möglich sein, daher werde ich noch ein Jahr die 6700XT nutzen. Bis dahin ist hat sich auch HWU neue Hochleistungskameras angeschafft, um noch irgendwas aufzudecken, was eh keiner merk.
 
@ChatGehPeeTee Aus dem Kindesalter bin ich längst hinaus und Linux kommt mir nicht auf den Rechner. Spulenpfeifen hat die Asus 5070Ti TUF, aber das ist in einem völlig vertretbaren Rahmen und ist nur in absoluter Stille aus dem Gehäuse heraus zu hören. Aber eine Karte ohne Spulenpfeifen gibt es meiner nach Meinung nach sowieso nicht.
 
AMD ist für mich gestorben, seitdem die den Support für ne 4 Jahre alte Karte eingestellt haben. Hatte mir erst die RX 6700 gekauft :/
 
@Launebub Haben sie das? Selbst wenn du nicht ständig neue Treiber bekommst,die Karte läuft trotzdem. Selbst meine 8 Jahre alte RX590 im zweiten PC ,die schon seit ner Weile legacy-status hat, läuft einwandfrei.
 
  • Gefällt mir
Reaktionen: Marflowah, Andre83hro und danyundsahne
Artikel-Update: Frametime-Messungen zeigen in Verbindung mit Frame Generation immer mal wieder nicht die ganze Wahrheit an. Aus diesem Grund hat ComputerBase in ARC Raiders und Black Myth: Wukong ein gefilmtes 240-FPS-Video aufgenommen und dieses massiv verlangsamt. Abgefilmt wurde ein 4K144-Display, VRR ist aktiviert gewesen und die Framerate lag im VRR-Bereich. Dann wurde möglichst gleichmäßig die Kameraperspektive gedreht. Qualitativ ist das Video zwar sehr schlecht, doch um Qualität geht es auch nicht.

Es lässt sich sehr gut erkennen, dass FSR Frame Generation dazu in der Lage ist, ein gleichmäßiges Frame Pacing zu betreiben, die Bilder werden also in beiden Spielen mit einem möglichst gleichen Zeitabstand ausgegeben. Das hat ein gutes Spielgefühl zur Folge und bestätigt die gefühlten Eindrücke der Redaktion. Das bedeutet nicht, dass dies in jedem Spiel der Fall sein muss und es kann auch Unterschiede zwischen verschiedenen Systemen geben. An sich funktioniert das Frame Pacing von FSR FG aber gut.
 
  • Gefällt mir
Reaktionen: Marflowah, .fF, Czk666 und 9 andere
Danke für den Nachtest.
Können wir nächstes Jahr mit einem Test aller drei Verfahren rechnen?
 
  • Gefällt mir
Reaktionen: Casillas
@DrFreaK666 Meinst du Frame Gen, Ray Regen und Radiance Cache? Ich plane definitiv noch mit mehr Tests zu den 3 Verfahren. Ohne jetzt auch nur im groben Details dazu zu kennen.
 
  • Gefällt mir
Reaktionen: Do Berek, coral81, Quidproquo77 und 2 andere
Es ist aber zu sehen, dass das von der KI ausgegebene Bild bis auf sehr kleine Bildbereiche absolut identisch zu dem gerenderten Bild ist. Man kann fast schon sagen, dass zwei Mal der gleiche Frame dargestellt wird anstatt ein „Mittelding“ aus den zwei gerenderten Bildern.
Und ich habe mich schon die ganze Zeit gefragt warum CP2077 mit und ohne FG das gleiche Spielgefühl und Bild ergibt. Das gleiche Problem habe ich bei HD2 auch. FG ist treiberseitig an, aber es "kommt nicht an" auf dem Bildschirm.
 
Marflowah schrieb:
Schön, da wird unglaublich viel Energie (Hirnschmalz und Technik) hineingesteckt, um fehlende Leistung (FPS) und fehlende Bildqualität (z.B. Aliasing) mit Tricks und Kniffen und KI und Logarithmen wegzumogeln - oder weniger drastisch ausgedrückt: wegzuschätzen.
Auch für Dich, der Unterschied zwischen Antialiasing, bspw. MSAA oder SSAA und DLSS ist was genau? Warum sprichst Du bei MSAA oder SSAA nicht auch von "mogeln"? Was ist bei einem komplett computergenerierten Bild basierend auf Algorithmen überhaupt "gemogelt"? Was nicht?

Schon lustig, was sich da Manche zusammenreimen, nur um das Neue schlecht zu reden. Aber viel Sinn ergibt es jeweils nicht...
 
@Wolfgang
Wie kann es sein, das ihr ein gutes frame Pacing feststellt und Hardware unboxed ein sehr schlechtes, bei dem das generierte frame direkt nach dem ersten gerendertem Frame eingeschoben wird und dann eine lange Pause bis zum nächsten frame entsteht?
 
TopAce888 schrieb:
Ich hatte ja gehofft, dass AMD mit Redstone auf DLSS schlussendlich aufholt, statt neue Namen zu verwenden und neue Probleme zu schaffen. Für mich ist es dann jetzt lediglich der Preisunterschied, ob 5070TI oder 9070XT. Eigentlich möchte ich gerne zu AMD wechseln, aber die Vernunft sagte, ich solle lieber bei Nvidia bleiben. Aber egal wie ich mich entscheide, das andere wird dann sowieso vom Kopf her das bessere sein. 🤔

Was meint ihr?
Ich sehe das so
  • Unterschiede von FSR4 und DLSS4 sehe ich nur mit der Lupe - ich bemerke diese beim Spielen 0,0
  • MFG ist für mich uninteressant, die 2x FGs sind gleichwertig
  • Pathtracing ist zu selten, um mir wichtig zu sein (leichtes + für Nvidia)
  • Effizienz ist die 9070 XT gleich gut bis leicht besser als die 5070 Ti (hier der CB Test)
  • bessere Unterstützung der Nvidia Technologien in Games durch Verbreitung (+ für Nvidia)
  • Preis (dickes + für AMD)
  • Nvidia bzw. das Quasimonopol möchte ich nicht unterstützen (+ für AMD)
 
coxon schrieb:
Und ich habe mich schon die ganze Zeit gefragt warum CP2077 mit und ohne FG das gleiche Spielgefühl und Bild ergibt. Das gleiche Problem habe ich bei HD2 auch. FG ist treiberseitig an, aber es "kommt nicht an" auf dem Bildschirm.
Willkommen im Club dann! Ich kann ja nicht der einzige damit in dem Spiel sein :D
Und ja, das gibt es auch in anderen Spielen. Das habe ich so schon mehrmals beobachtet.
SavageSkull schrieb:
@Wolfgang
Wie kann es sein, das ihr ein gutes frame Pacing feststellt und Hardware unboxed ein sehr schlechtes, bei dem das generierte frame direkt nach dem ersten gerendertem Frame eingeschoben wird und dann eine lange Pause bis zum nächsten frame entsteht?
Wenn ich das wüsste...
Aber so hat FSR 3 Frame Gen leider vom ersten Tag an reagiert. Das Feature funktioniert nicht auf allen Systemen gleich. Manchmal funktioniert es gut, manchmal quasi gar nicht. Ich habe oft gehabt, dass sich FSR FG auf meinem Privat-Rechner völlig anders verhalten hat als auf dem Testsystem. Das ist nicht neues. Und das hat AMD bis heute nicht abstellen können.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und coxon
Marflowah schrieb:
Das kann doch nicht der Anspruch von uns Spielern sein, das so hinzunehmen. KI sollte nicht hingeschlampte Software optimieren müssen.
Die Alternative ist, dass Spiele schlechter aussehen/schlechter laufen. Ist das dein Anspruch?
Wer wirklich glaubt, dass Spiele besser optimiert wären, wenn es FG und DLSS nicht gäbe, der ist massiv auf dem Holzweg.

Ich kann dir dafür auch Beispiele nennen: ARK Survival Evolved und ARK Survival Ascended.
Ersteres lief damals auf der schnellsten Karte (980 TI) in Full HD mit nicht mal 40 FPS. Oft sogar weit drunter.
Letztere läuft dank DLSS und FG flüssig. Optimiert wurden beide Spiele nicht wirklich.

Diese Techniken wurden nicht gebracht, weil man weniger optimieren wollte, sondern um den Fortschritt zu pushen. Die alte Rastertechnik skaliert einfach nicht mehr gescheit. Mehr Shader bringen nicht wirklich viel mehr Leistung und den Takt der Karten kann man auch nicht unendlich pushen, also muss man andere wegen gehen: RT + Upscaler + FG.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Quidproquo77 und Nighteye
TopAce888 schrieb:
Eigentlich möchte ich gerne zu AMD wechseln, aber die Vernunft sagte, ich solle lieber bei Nvidia bleiben.
Was meint ihr?
Guckmal du zerbrichst dir so sehr den Kopf zwischen Vor und Nachteilen zwischen RX9070XT und RTX 5070ti, das es aus der Distanz betrachtet fast schon Irrelevant ist für welche du dich entscheidest.
Du wirst mit beiden Karten relativ gleich gut weg gekommen sein.
Aber was die Vernunft betrifft, sehe ich einen Grund pro Radeon.
Nvidia hat 95% Marktanteil.
Bei Steam hat RDNA 4 0%, Blackwell 9%

In meiner Star Citizen Bubbel von ca 45 Spielern hat niemand eine RDNA 4.
Außer mir (RX6800) haben noch 3 leute eine RX7900XTX und das wars mit Radeon nutzern.
Rest haben alle Geforce, die meisten RTX 4000 oder RTX 5000.

Wenn du den Monopolisten nicht stärken willst, ist die Vernunft Antwort, nimm Radeon.
(Oder die neue Intel B770 die bald kommt)
 
Zurück
Oben