News FSR 4: Auch Frame Generation läuft auf RDNA 3

AMD hat recht, die die das auf alten Karten haben wollen, sollen selbst tüfteln.

Ich habe eine RX 6600 und RX 9070, bei der letzteren ist FG generell immer aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pisaro
csch92 schrieb:
genau das ist das problem
und das wird sich auch nie ändern. Persönlich ist mir das sogar egal, da ich dann einfach diese spiele nicht spiele. Gibt ja genug anderes was gespielt werden kann. Aber wenn einem das wichtig ist, dann braucht man keinen Gedanken mehr an ein anderes OS zu verschwenden. Da dann das OS für die jeweilige person eh nicht wichtig ist und einen nicht interessiert.
 
Solche Sachen müssten von AMD selbst kommen und nicht von irgendwelchen Tüftlern
 
  • Gefällt mir
Reaktionen: ev4x, Quidproquo77, MalWiederIch und eine weitere Person
Klar Alter, ich bau noch ne Emulationsschicht dazwischen um die Latenz und die Laufzeit zu erhöhen.
DLSS als es rauskam war Hexenwerk, aber das AMD Pentant möchte man nun auf Teufel komm raus auf zum laufen bringen. FSR3 lieferte doch auch passable Ergebnisse - deal with it.

Aber hey, man konnte Doom auch auf nem 386 SX spielen laufen lassen...
 
LETNI77 schrieb:
AMD hat recht, die die das auf alten Karierten haben wollen, sollen selbst tüfteln.
Hast du dafür auch eine Begründung? Produktpolitisch ist es schlicht dämlich, daran gibt es wenig zu rütteln. Anders wäre das nur, wenn die technische Möglichkeit nicht bestünde, was aber offensichtlich nicht der Fall ist. Gilt für FSR4-Upscaling analog.
LETNI77 schrieb:
Ich habe eine RX 6600 und RX 9070, bei der letzteren ist FG generell immer aus.
Okay ... schön für dich? :D
Grundkurs schrieb:
Solche Sachen müssten von AMD selbst kommen und nicht von irgendwelchen Tüftlern
Absolut richtig ... wird an diesem Punkt wohl nicht mehr passieren, lächerlich ist es aber allemal.
 
  • Gefällt mir
Reaktionen: Quidproquo77, ProRateX, MalWiederIch und eine weitere Person
icetom schrieb:
aber ich dachte AMD sind immer die Guten? Ob die RTX 5000 features von Nvidia auch auf der vorherigen Gen laufen?

Tun sie doch teilweise, alles außer MFG 4x (Frame Generation 4x) läuft auch auf der 4000er Generation davor (z.B. verbessertes DLSS mit Transformer Modell). Klar je weiter man runter geht desto weniger, z.B. keine FG bei RTX 3000 oder kleiner.

---
Ich finde der Titel impliziert, es handele sich hier um eine offizielle Unterstützung seitens AMD.
Was genau ist denn jetzt neu an dem Thema?
Der verlinkte Thread bei Reddit in der News impliziert eher, AMD würde es (vorerst) bewusst RDNA3 vorenthalten.
 
Zuletzt bearbeitet:
Lan_Party94 schrieb:
@YetiSB
Ich für meinen Teil werde nun drei mal überlegen mir eine AMD Karte zu kaufen. Meine alte GTX 1070 läuft bei einem Freund heute noch und der schafft an die 80 Frames bei Arc Raiders - unter Windows wohl gemerkt. Sowas spricht ganz klar für Nvidia.
Wie gut läuft denn DLSS4 auf der 1070? Ach das geht gar nicht? Das sollte Nvidia dann aber schleunigst nachholen, sonst kauft du da ja sicher auch nix mehr, oder?
 
  • Gefällt mir
Reaktionen: SweetOhm und Aquilid
Man sollte FSR 4 mit XeSS 2 gegentesten. XeSS 1 bieten die meisten Spiele und durch Austausch einer Datei aus dem Intel SDK 2.1, lässt sich die XeSS 1 Skalierung in 2 umwandeln. Vielleicht wäre es eine reale und vor allem funktionierende Alternative für 6 und 7 Karten Besitzer.
 
  • Gefällt mir
Reaktionen: Cark und V_182
Lan_Party94 schrieb:
@YetiSB
Nah, ich würde es nicht unbedingt als Pluspunkt sehen. Eigentlich ist es AMDs Aufgabe dies möglich zu machen und nicht die der Community.
Schon und gut das AMD Karten unter Linux so gut laufen, weil AMD mit "offenen" Karten spielt, aber die eigene Arbeit "für lau" outsourcen wird auf Dauer den Ruf schädigen und der ist durch diverse Aktionen schon ordentlich ins schwanken gekommen.
Ich stimme dir grundsätzlich vollkommen zu hinsichtlich des Punktes, dass AMD FSR4-Features höchstselbst und auch schon vor vielen Monaten auf RDNA3 hätte portieren müssen, wenn irgendwelche Modder dies mit Leichtigkeit zu können scheinen und es mithin keine technischen Gründe für das Unterlassen dieser Portierung gibt.
Lan_Party94 schrieb:
Ich für meinen Teil werde nun drei mal überlegen mir eine AMD Karte zu kaufen. Meine alte GTX 1070 läuft bei einem Freund heute noch und der schafft an die 80 Frames bei Arc Raiders - unter Windows wohl gemerkt. Sowas spricht ganz klar für Nvidia.
Auch die Schlussfolgerung, dass man sich eine weitere AMD-Anschaffung im Angesicht dieser Politik mehrfach überlegen sollte, teile ich. Meine 7900 XTX würde ich definitiv kein zweites Mal kaufen, sondern stattdessen zur RTX 4080 greifen. Müsste ich jetzt neu kaufen, würde es ebenso eine Nvidia-Karte werden. Und sollte ich in der kommenden Generation wechseln wollen, könnte es aus demselben Grund auch eine Geforce werden, ohne dass ich der Radeon-Alternative größere Aufmerksamkeit schenke, außer diese sollte klar besser sein - call me petty, so sieht es einfach aus :D

Der Rückgriff auf eine GTX 1070 als Argument greift da aber meiner Meinung nach ein wenig daneben, denn deren veraltete Technologie hat mit dieser Diskussion nun wirklich nichts zu tun und taugt als Anhaltspunkt für heutige Nvidia-Qualität auch nur sehr bedingt. Die Karte ist fast 10 Jahre alt, seitdem haben sich Nvidias Angebote in Sachen Leistung pro Euro ebenso wie in Sachen Großzügigkeit der Speicherausstattung und damit auch Kartenlanglebigkeit eher dem relativen Regress ausgesetzt.
Zoba schrieb:
Wie gut läuft denn DLSS4 auf der 1070? Ach das geht gar nicht? Das sollte Nvidia dann aber schleunigst nachholen, sonst kauft du da ja sicher auch nix mehr, oder?
Du hast durchaus recht damit, herauszustellen, dass die GTX 1070-Argumentation ein wenig aus der Reihe läuft. Trotzdem machst du es mit dieser Herangehensweise nicht besser, denn das unterliegende Argument ist genauso schwach.
De facto hat AMD ziemlich aktuelle Technologie, unter anderem seine letzte High-End-Karte, die bis heute die nominell stärkste Radeon ist, in der Treiberentwicklung kommentarlos fallen lassen und ihr zwei der wichtigsten Features der letzten Jahre vorenthalten.

Zunächst mag es dafür sogar technische Gründe gegeben haben, unlängst hat sich aber ja gezeigt, dass FSR4 (und offenbar auch FSR 4 FG) auf RDNA3 problemlos lauffähig ist, wenngleich es ggü. RDNA 4 zu Leistungseinbußen kommt. Und damit gehen AMD eben einfach die Ausreden aus ...

In der breiten Masse ist AMD als Grafikchip-Hersteller ohnehin kaum noch relevant, das muss man leider sagen. Es sich dann auch noch mit der Tech-Community zu verscherzen, indem man solche Dinger reißt, ist schlicht und ergreifend höchst unklug. Denn woher sollen Empfehlungen am Ende dann noch kommen? Mittlerweile kommt es da auch auf diese Nischen durchaus an, so man den Gaming-Markt, für den Nvidia künftig immer weniger produzieren wird, denn weiter konkurrenzfähig bedienen will.

Andererseits drängt sich mir aber ohnehin der Eindruck auf, dass man das vielleicht auch gar nicht möchte. Preislich fährt man ja ohnehin schon länger im Windschatten des großen Rivalen, auf Marktanteile scheint es kaum noch anzukommen. Am Ende schadet das dem Kunden am meisten, da ist AMD letztlich auch kein Stück besser als Nvidia. Verspielt man dann noch den Sympathiebonus des Underdogs ... nunja, den Weg in die Bedeutungslosigkeit stoppt sowas nicht.
 
  • Gefällt mir
Reaktionen: Nordbadener, ProRateX, Lan_Party94 und eine weitere Person
Cool Master schrieb:
So viel dazu, dass das nicht geht. Wusste ich doch, dass es möglich sein wird. Bekräftigt meine Entscheidung die 7900 XTX gekauft zu haben :)
Cool Master schrieb:
Ich nutze aber so oder so kein FSR/DLSS und co. Die Karte hat genug Leistung für 4k.
Cool Master schrieb:
Liegt nicht an der fehlenden Leistung sondern an UE5. Des Weiteren nutze ich kein RT oder PT. Mir ist Gameplay und Story 100 mal wichtiger als aussehen.
Mein bester, ich stimme deinen Beiträgen ansonsten wirklich oft zu, aber hier bist du hart am copen.
Wenn du die Karte sehr preiswert bekommen hast, oder abseits vom Gaming noch Software nutzt, welche >16GB Speicher benötigt, war es eventuell ein guter Kauf.
Ansonsten, rein auf Spiele bezogen, wären die anderen Karten aus dieser Leistungsklasse (RX 9070 (XT), RTX 4070 Ti S, RTX 4080 (S), RTX 5070Ti, RTX 5080) bei vergleichbaren Preis allesamt eine bessere Wahl gewesen, weil sie mit modernem Upscaling und teils besserem Support für RT die bessere Bildqualität und/oder FPS auf den Bildschirm bringen, als die 7900 XTX.

Selbst wenn einem "Gameplay und Story 100 mal wichtiger sind als aussehen" ist das ja kein Argument für die 7900 XTX, denn mit der selben Begründung könnte man auch behaupten eine RTX 3060 wäre schnell genug für 4K (wenn man alles auf low/aus stellt, oder nur alte Spiele spielt.)

Der Affentanz, der um den FSR4 Support für RDN3 gemacht wird um es zumindest in abgespeckter Form und teils mit viel manuellem Aufwand auf den alten Karten zum laufen zu bekommen ist mittlerweile echt albern geworden, auch wenn ich verstehen kann, dass man sich als Besitzer einer solchen Karte über jeden Krümel dahingehend freut. Nach all der Zeit muss man aber auch einfach einsehen, dass das höchstwahrscheinlich nichts mehr "richtiges" wird, sonst hätte AMD mittlerweile schon längst etwas offizielles veröffentlicht.
Der mangelnde/mangelhafte FSR4 Support der pre 9000 AMD Karten ist in meinen Augen eine mindestens ebenso große Schwäche wie der zu knappe VRAM der last-, und teilweise noch current Gen mittelklasse Nvidia Karten.
Das braucht man sich nicht schön zu reden und gerade für 4K wirst du mit der Karte, trotz üppigem VRAM schon jetzt (und mittelfristig noch mehr) starke Kompromisse bei der Bildqualität eingehen müssen, im Schnitt leider vermutlich deutlich mehr, als mit den oben genannten Karten.
 
  • Gefällt mir
Reaktionen: Wanderwisser und Taxxor
rollmoped schrieb:
Dass die Performanceeinbußen auf den RX 7000 Karten gegenüber dem "echten" FSR4 gering sind, liegt daran, dass INT8 schneller zu berechnen ist. Es ist also eine "billigere" Variante von FSR4. Und somit reden wir hier über 2 verschiedene paar Schuhe.

Ich vermute, dass genau deshalb AMD ein Problem mit der Freigabe hat.
Und genau DAS wird das Thema bei AMD sein, dass man diese Freigabe nicht erteilt.
Es sind 2 paar Schuhe und wenn man den RDNA3 Karten die Freigabe für FSR4 erteilt, dann weckt man natürlich im Umkehrschluss sofort das Interesse endlich "FSR4" nutzen zu wollen.
Und was passiert dann? Es werden Vergleiche mit den RDNA4 Karten hergestellt und man bemerkt, dass die Bildqualität in gewissen Szenen geringer sein wird und dann geht eventuell das Gehate los.
"Es sei kein vollwertiges FSR4!", "wie kann AMD nur...!?", "die sind schlechter als DLSS4..." etc pp.
Das ist doch genau das, was AMD nicht will. Ist doch logo.

Auch wenn sie von FSR4 "light" sprechen würden.
rollmoped schrieb:
Trotzdem wäre es natürlich wirtschaftlich völlig sinnvoll von AMD, das "Fake"-FSR4 offiziell freizugeben (immerhin ist es besser als FSR 3). Besonders für die Steam Machine. AMD hat natürlich ein Interesse daran, dass die erfolgreich wird. Auch wenn man das INT8-FSR4 dann korrekterweise FSR4 Lite nennen muss.
Ist doch bei NV genauso, die alten GTX1000 Karten haben auch keine Tensor Kerne, die DLSS berechnen können.
Ginge vll auch über Umwege wie bei AMD? Aber soweit ich weiß gab es dazu nie Berichte oder ich habe sie übersehen.
Also gab es auch einen harten Cut bei NV, dass nur die GPUs DLSS supporten, die auch die richtige HW (Tensor Cores) dazu haben.
Und bei AMD ist dieser Schnitt eben von RDNA3 auf RDNA4 um 100%-ige Qualität zu liefern.
 
  • Gefällt mir
Reaktionen: SweetOhm
Apocalypse schrieb:
Oh ja, das ist absolut Grausam, wobei ich mich echt Frage wie das jetzt Assetto Corsa Rally in den Griff bekommen hat. Ist das erste Spiel, das mit einfällt das wirklich auch mit gutem Tempo durch die Welt sich bewegt und trotz UE5 nicht stottert, auch jenseits von 30 FPS.

Also flüssige Spiele ohne Stottern sind mit UE5 schon möglich. CD Projekt Red hat im Inteview zu ihrer UE5 Witcher 4 Demo auch gesagt, dass sie sich zum größten Teil einfach nur sorgfältig mit der Engine beschäftigt haben und auf die Performance geachtet haben. Ja, sie arbeiten eng mit Epic zusammen wie kein anderes Studio und das Spiel wird sicherlich das Aushängeschild für die Engine, daher vielleicht mit vorsicht zu genießen. Aber ich denke fähiger Entwickler können mit der Engine schon sehr gute Ergebnisse erzeugen. Es gibt ja auch schon positie praxisbeispiele.

Das problem in der Hinsicht ist viel mehr, dass die Engine leicht zugänglich ist und recht einfach ein Spiel aufgebaut werden kann, aber mit der Engine im Kern beschäftigen sich halt viele Entwickler nur unzureichend. Ich denke bei vielen Studios herrscht der Gedanke "ach, wenn Epic die UE5 entwickelt und wir die Lizensieren, dann können wir uns im gegenzug Leute bei unserem Engine Team einsparen". Und genau das ist halt ein Trugschluss. Die UE5 ist sehr mächtig und vielseitig, hat einige größere Probleme und schwächen, wie jede engine. Aber es braucht eben auch Know How und Zeit um damit ein sauber laufendes Spiel zu bekommen. Am Ende zählt schließlich nur das Ergebnis.

Dass sich dann jeder hinz und kunz, jedes Indie und Double A Studio auf diese Engine stürzt und irgendwas auf den Markt rotzt machts halt nicht besser. Gerade kleinere Studios setzen sich oft nur aus Artists und designern zusammen, selten echten Grafik und Software spezialisten, denn die verdienen wo anders meist mehr geld...
Diese Studios können dann mit der UE5 viel schaffen, was sie sonst nicht geschafft hätten. Aber es läuft dann eben meist nicht gut, weil das Know How fehlt, richtig zu optimieren.

Daher muss da auch Epic zusehen, dass sie es diesen Entwicklern so einfach wie möglich machen. Durch bessere und einfachere Dokumentation und Hilfestellungen oder durch Engine Seitige Optimierungen, die schlechte Entscheidungen von Entwicklern "abfangen" und soweit optimieren, dass es eben nicht zu rucklern kommt.

Die UE5 ist ein mächtiges Tool, aber wenns gut werden soll muss man auch wirklich lernen damit umzugehen und die Limitierungen verstehen.

Vor 10-20 Jahren war die Engine Entwicklung und optimierung Aufgabe für echte Informatik Spezialisten. Teilweise haben die klügsten Köpfe der Branche sich mit neuen Features und Rendering Tricks überboten. Gerade in den 80ern und 90ern war das noch viel extremer. Da kamen spiele nicht von irgendwelchen Grafik und medienstudenten, sondern von informatikern, mathematikern und wissenschaftlern, die diese Branche für sich entdeckt haben und versucht haben auszuloten was dort möglich sein kann. Heute ist das ein hochkommerzialisierter Markt in dem zunehmend Know How für die Technik verloren geht. Mit jedem Studio das seine Inhouse Engine fallen lässt und auf UE5 setzt, stirbt ein Teil davon.

Aber gut, vielleicht ist das am Ende ja auch was positives, wenn sich das wissen der Branche in form von 1-2 Engines konsolidiert und die wirklichen Spezialisten dann bei Epic, Unity, AMD und Nvidia sitzen und die Entwickler dann einfach Spiele entwickeln können und sich um die Technik gar nicht mehr kümmern brauchen. Wer weiß, vielleicht ist das ja genau der richtige weg, anstatt das Rad in jedem einzelnen Entwicklerstudio neu erfinden zu müssen.
 
danyundsahne schrieb:
"Es sei kein vollwertiges FSR4!", "wie kann AMD nur...!?", "die sind schlechter als DLSS4..." etc pp.
Das ist doch genau das, was AMD nicht will. Ist doch logo.
Es ist keine Kunst, dem ganzen in den Spieleinstellungen ein gesonderten Namen zu geben, wenn FSR4 mit einer RDNA3 Karte verwendet wird. AMD muss nur von der ersten Sekunden davon sprechen und nicht erst versuchen, die Leute mit Marketingsprüchen in die Irre zu führen.

FSR4 -> FSR4 Lite
 
  • Gefällt mir
Reaktionen: JJJT, Quidproquo77, ProRateX und 2 andere
Cool Master schrieb:
So viel dazu, dass das nicht geht. Wusste ich doch, dass es möglich sein wird. Bekräftigt meine Entscheidung die 7900 XTX gekauft zu haben
Mit genug "Aufwand" kann man alles hinbekommen. Hier ist halt eine Zwischenschicht im Übersetzer von DirectX zu Vulkan.

Es ist allerdings echt "erstaunlich", was findige Entwickler da hinbekommen.
lynx007 schrieb:
Stimmt doch so pauschal auch nicht!
Das Thema FSR, DLSS und Co ist an der Stelle immer auch etwas aufgeladen und es kommt halt am Ende auch auf den eigenen Blickwinkel an. Ich bin, was das Thema angeht, total emotionslos. Wenn man FPS will, weil man sie benötigt, kann man immer zu FSR, DLSS und Co greifen. In einem schnellen Spiel gehen Artefakte und Co auch gerne unter.

Allerdings kann die Qualität am Ende jedoch auch wieder wichtig werden. Ich merke das gerne auch mal an Spielen, wenn man innehält. Da kann es schon entscheidend sein, wie viele Artefakte und welche Artefakte erzeugt werden.
Crifty schrieb:
Ich verstehe dieses einhacken auf AMD nicht
AMD hat sich hier selbst diese Angriffsfläche geöffnete und diese wird auch ausgeschlachtet. Man hat sich bei FSR 1 und FSR 2 sowie FSR 3 im Marketing auf die Kompatibilität gestützt und auch GTX 10x0 und Co mit genommen. Das fällt jetzt auf sie zurück.
derMutant schrieb:
Was es aber auch zeigt, dass beide großen Hersteller sich in Punkto künstlicher Beschneidung ihrer eigenen Hardware in nichts nachstehen.
Ja und Nein. Nvidia hat DLSS in der Form klar auf AI hin entwickelt und von Anfang an kommuniziert, dass es die Tensor-Kerne benötigt - dass es auch anders geht, hat man auch gesehen. Jedoch ist Nvidias Kommunikation seit dem einheitlich gewesen und für viele ist das auch nachvollziehbar.

AMD ist hier eben mal wieder AMD. Mit RDNA 1 und RDNA 2 gibt es keine "WMMA"-Befehle, mit RDNA 3 hat man die eingeführt und mit RDNA 4 die AI-Fähigkeiten ausgebaut. Dass RDNA 1 und RDNA 2 "wegfallen" könnte man mit einer klaren Kommunikation, ähnlich der von Nvidia auch sagen: RDNA 1 und RDNA 2 fallen weg, weil WMMA fehlt. Das RDNA 3 die WMMA-Implementation "schwächer" ist, das kannst du höchstens "Nerds" erklären, jedoch nicht der breiten Masse.
heroesgaming schrieb:
wenn irgendwelche Modder dies mit Leichtigkeit zu können scheinen und es mithin keine technischen Gründe für das Unterlassen dieser Portierung gibt.
Na ja ... man muss hier schon beachten, dass eine Datentyp-Emulation stattfindet. RDNA 3 hat kein FP8-Support und der muss nachgebildet werden.

Und dass AMD hier in ihren Treiber keine Datentyp-Emulation einbauen will, das kann ich aus Entwicklersicht mehr als verstehen. Sowas macht in der Regel nicht nur Arbeit, sondern kann auch mal schnell die Büchse der Pandora öffnen.
Mimir schrieb:
Ja, sie arbeiten eng mit Epic zusammen wie kein anderes Studio und das Spiel wird sicherlich das Aushängeschild für die Engine, daher vielleicht mit vorsicht zu genießen. Aber ich denke fähiger Entwickler können mit der Engine schon sehr gute Ergebnisse erzeugen.
CD Project Red hat hier wirklich den Vorteil, dass sie noch richtige "Grafik-Entwickler" haben. Von dem, was ich mitbekommen habe, sind diese auch immer noch gut beschäftigt und passen die UE auch an die Bedürfnisse für CD Project an.

Ein Problem mit der UE 5 sehe ich allerdings auch ein Stück weit im "Marketing" von Epic und wie die Engine auf der einen Seite Spielern präsentieren und gleichzeitig auch den Studios. Es wird von Epic oft so getan, dass man alles mit wenigen Clicks umsetzen kann und wie mächtig die Engine ist, weil sie quasi alles abdeckt. Dass diese Mächtigkeit ihren Preis hat, wird oft eher "verschwiegen".
Mimir schrieb:
Da kamen spiele nicht von irgendwelchen Grafik und medienstudenten, sondern von informatikern, mathematikern und wissenschaftlern, die diese Branche für sich entdeckt haben und versucht haben auszuloten was dort möglich sein kann.
Oder es waren Autodidakten wie John Carmack. Der Kerl ist und bleibt eine Legend!
 
  • Gefällt mir
Reaktionen: JJJT, SweetOhm, derMutant und 2 andere
heroesgaming schrieb:
Meine 7900 XTX würde ich definitiv kein zweites Mal kaufen, sondern stattdessen zur RTX 4080 greifen.
Du könntest deine XTX für ca. 600€ verkaufen und dir dann eine 9070XT kaufen. Noch sind diese Karten ebenfalls um diesen Kurs verfügbar. Ähnliches habe ich hinter mir und es war der richtige Deal.
 
  • Gefällt mir
Reaktionen: SweetOhm, Wanderwisser und Alphanerd
NguyenV3 schrieb:
Es ist keine Kunst, dem ganzen in den Spieleinstellungen ein gesonderten Namen zu geben, wenn FSR4 mit einer RDNA3 Karte verwendet wird. AMD muss nur von der ersten Sekunden davon sprechen und nicht erst versuchen, die Leute mit Marketingsprüchen in die Irre zu führen.

FSR4 -> FSR4 Lite
Nein eben nicht, ich sehe das eher so wie @DevPandi

Nerds verstehen das vll, aber die breite Masse beklagt dann die mindere Qualität und AMD ist (wie immer) der Buhmann.

Daher kann ich das schon nachvollziehen. Und wir hier in dem Forum sind eher die Nerds. Ja, wir wollen FSR4 Lite.
Alle anderen da draußen, denken dann sie erhalten vollwertiges FSR4, aber ist es nicht und fällt AMD wieder auf die Füße.
 
  • Gefällt mir
Reaktionen: SweetOhm und xpad.c
derMutant schrieb:
Auch hier haben findige Modder einen Weg gefunden FS3 in Kombination mit DLSS für RTX 2000 und RTX 3000 Karten nutzbar zu machen. Ich konnte es zwar noch nicht testen, aber was man so ließt soll es einen ordentlichen Performanceboost geben.

Was es aber auch zeigt, dass beide großen Hersteller sich in Punkto künstlicher Beschneidung ihrer eigenen Hardware in nichts nachstehen.

Sowohl nvida als auch amd handeln NICHT im Interesse ihrer Kunden, wenn sie ältere Grafikkartengenerationen von neuen Features ausschließen.
Dass es einen Weg gibt, steht außer Frage. Ob der dann so gut funktioniert, steht auf einem anderen Blatt.

NVidia hat immer kommuniziert, dass FG eine Motion-Engine (ich hoffe, ich hab mir den Namen korrekt gemerkt) nutzt, die erst ab Lovelace vorhanden ist.

Ein großer Unterschied zwischen FSR FG und DLSS FG ist das Frame-Pacing, wie sie jetzt immer klarer herausstellt. D.h. bei DLSS FG sind die Zwischenframes praktisch immer korrekt perfekt getimed. Das ist per Software kaum machbar - und ich vermute, dass genau hier diese Motion-Engine, also eine Hardwarelösung, ansetzt.

Also, nur weil etwas IRGENDWIE läuft, muss das noch lange nicht bedeuten, dass der Hersteller das aus bösem Willen unterdrückt. Manchmal sind die Nachteile einfach zu groß, so dass der Reputationsverlust ("das sieht ja scheiße aus") schlimmer ist, als der Vorteil, denn man evtl. dadurch hat, dass es mehr Kunden nutzen können.-

Nicht immer von vorne herein davon ausgehen, dass alle Companies alles nur machen, um dem Kunden zu schaden. Manchmal gibt es auch durchaus andere Gründe :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derMutant
Mimir schrieb:
Also flüssige Spiele ohne Stottern sind mit UE5 schon möglich.
Ja, aber wo? Ich spiel selbst kein Fortnite, aber es soll ja nicht mal da vollständig weg sein. Wo, wenn nicht in Epics eigenem Parade Game, dabei ist das nicht mal besonders schnell? Es stottert halt überall vor sich hin.

Assetto Corsa Rally ist wirklich buchstäblich das einzige mir bekannte Game, das weit jenseits von 30 FPS läuft und dabei auch noch den Spieler sehr schnell durch die Welt bewegt das nicht stottert.

Und das ist umso beeindruckender nachdem Kunos selbst ja nach einem Ausflug in die Unreal Engine wieder für ihr eigenes AC wieder auf eine Hausengine gewechselt sind, nachdem sie über die ganzen Jahre so manches Shader Problem mit Unreal nicht in den Griff bekommen haben.

Mal ganz davon ab, das ich natürlich mit der UE5 mir auch viel Ballast ins Haus hole, und dann erst mal anscheinend anfangen kann Features auszusortieren, für die man viel Geld bezahlt, sein Engine Entwicklungsteam trotzdem nicht entlassen kann, und am Ende dem Marketing Team auch noch eingebläut werden muss, das die Engine die verwendet wird nicht an die große Glocke zu hängen weil das bei manchen Spielern schon dieser Tage direkt ein Ausschlussgrund ist …

Mir als Spieler kann es übrigens auch egal sein, ob jetzt 10 von 10 Studios nur die Optimierung mehr als 30 FPS nicht gemacht haben oder ob das jetzt an Epic selbst liegt, am Ende bleibt das UE5 Spiele eben in der Regel Probleme am PC machen.

Aber hey, irgendwas scheint in ACR richtig zu laufen, ich frag mich nur was.
 
  • Gefällt mir
Reaktionen: SweetOhm
DevPandi schrieb:
Das Thema FSR, DLSS und Co ist an der Stelle immer auch etwas aufgeladen und es kommt halt am Ende auch auf den eigenen Blickwinkel an.


Ja, wobei der sich schnell ändert wen man FSR/DLSS davor nur aus Print kannte wo halt statisch die Unterschiede hervorgehben werden. Und auch wen man merkt das FSR in Unterschiedlichen Spielen, einen unterschieldlcihen einfluss haben können.

Vor meine 9060xt fehlte mir halt total der Praxisbezug. Und wen man das dann einordnen kann, insbesondere zu anderen Grafik ingamesetting, wo es dann sehr viel schneller und schlimmer flimmert, oder nur noch Blur ist, dann erkennt man in FSR schnell durchaus in manchen Situationen brauchbares Tool ist was einen Mehrwert bietet. Selbst auf FSR3 wen man darauf achtet nicht unter QHD runter zu gehen.

Was dann doch relativ überrascht wie brauchbar FSR dann doch ist, obwohl ich alles was Flimmert oder Ghostet hasse. Das hat man aber auch oft über "verbessernde" Spieleinstellung ,viel schlimmer , ohne FSR. VSR + FSR 3+ bügelt wiederum relativ zuverlässig in der breite halt extrem viel raus.... und ist selten inkompatibel. Gerade QHD/4k +FSR Balanced sind die werte oft besser als klassisches AA

Auch habe ich mir die 9060xt nicht wegen dem FSR gekauft.... Das angekpndigte FSR4 hat es zwar einfacher gemacht., war nice zu have. Aber im vordrung lag halt Speicher, Preis/Leistung. Aber ich glaube nicht das ich selbst ohne FSR4 den Preissprung von der 9060xt16gb auf eine 5060ti16gb gegangen wäre.

Jetzt wo ich weiß wie ausreichen selbst FSR3 ist, wieviel der mehrwert zu anderen Grafik Settings im Game ist, bereu ich dne Kauf noch weniger. Das kommde FSR4 ist eher nen Bonus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: daknoll und SweetOhm
danyundsahne schrieb:
Nerds verstehen das vll, aber die breite Masse beklagt dann die mindere Qualität und AMD ist (wie immer) der Buhmann.
Ja, aber AMD verkauft aktuell auch noch Chips, die nicht RDNA4 sind (z.B. für die Steam Machine und ähnliche Systeme). Insbesondere diese Systeme laufen im Prinzip ohne Hochskalierung wegen schwacher GPU vermutlich nicht angemessen. Zumindest auf Linux, wo das "FSR4 Lite" schon läuft, müsste man es irgendwie offiziell freigeben, damit z.B. Valve es in Proton standardmäßig aktivieren kann. Und natürlich muss es auch in die Konsolen kommen, die INT8 ausreichend können. Alles andere wäre ein Hängenlassen von Geschäftspartnern.
Aber wie gesagt, es muss offen kommuniziert sein, dass die Qualität nicht die gleiche wie bei FSR4 ist, um eben zu verhindern, dass jemand da draufhaut.

Update: Auf Windows hat man natürlich das Problem, dass man für FSR4 Frame Generation erst eine FP8 Emulation in den Treiber einprogrammieren muss. Es fragt sich natürlich, wie die Reaktion wäre, wenn man Frame Generation unter Windows deshalb nicht freigibt, und auf allen anderen Systemen schon.
 
  • Gefällt mir
Reaktionen: SweetOhm, Aquilid und danyundsahne
Zurück
Oben