• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News FSR-2.0-Modding: AMDs Upscaling läuft in Metro Exodus auch ohne Upscaling

Vitche

Redakteur
Teammitglied
Registriert
Aug. 2016
Beiträge
3.094
  • Gefällt mir
Reaktionen: Zitterrochen, gartenriese, Michael vdMaas und 19 andere
Es ist echt eine Wohlrtat zu sehen, was man so alles machen kann, wenn Herstellerin (AMD) und Kunde (Modder) Hand in Hand gehen! DANKE
Ergänzung ()

@Vitche danke für den Artikel, nur eine kleine Bitte, wenn es keine Umstände macht. Könnte man, in solchen Vergleichs-Artikeln allgemein, zu den 4 Bildern noch ein Fünftes dazupack, wo man 4x, den gleichen Bildausschnitt, auf einem Bild sieht, zum beseren Vergleich.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ernie75, LPCyber, flo.murr und 45 andere
Schön wenn man sich bei Nexus Mod den FSR 2.0 Cyberpunk 2077 Mod saugt und sofort der Windows Defender Alarm schlägt 🧐

Bedrohung gefunden.png


Da warte ich lieber bis die Spieleentwickler FSR 2.0 nachträglich einbringen. Mag sein das es ein falscher Alarm ist, aber auf Trojaner habe ich keinen Bock.
 
Zuletzt bearbeitet: (Morgentlicher Denkfehler)
  • Gefällt mir
Reaktionen: Mcr-King
Welche Ausrede haben die Spielehersteller eigentlich, um FSR 2.0 NICHT in ihre Spiele einzubauen? Das scheint ja auch nachträglich sehr einfach möglich zu sein, soll also keiner was von Kosten erzählen.
 
  • Gefällt mir
Reaktionen: Bairok, E2K3, Zitterrochen und 9 andere
@Vitche
Im Artikel wird von "KI gestützt" gesprochen bei FSR. Hat genau das AMD eben nicht? Nur temporales Upscaling ohne KI (im Vergleich zu nVidia)
 
  • Gefällt mir
Reaktionen: Lübke82, Vitche und Lord_X
HerrRossi schrieb:
Das scheint ja auch nachträglich sehr einfach möglich zu sein
Sofern schon DLSS integriert ist. Das hat auch AMD so kommuniziert. Wenn nur TAA vorhanden ist, dauert es länger, und wenn es nicht mal das gibt, noch länger. Generell ist das schon etwas mehr Aufwand als nur dll-Dateien auszutauschen wie hier durch die Modder, weil es in den meisten Fällen Grafikfehler, Ghosting oder ähnliches gibt. Die Entwickler müssen da schon nochmal Hand anlegen.

Grundsätzlich gäbe es aber viele Spiele, die das mit relativ wenig Aufwand nachreichen könnten, das stimmt.
 
  • Gefällt mir
Reaktionen: HerrRossi, Unnu, Schinken42 und 4 andere
Im Endeffekt haben ein paar Modder nun rausgefunden, dass FSR auch einfach für das Anti Aliasing verwendet werden kann. Das Feature wird sicherlich demnächst im Treiber nachgeliefert oder als weitere Option in FSR2.0 Spielen hinterlegt.
Freue mich irgendwie darüber, auch wenn meine Hardware das bei weitem nicht unterstützen würde.
 
jonderson schrieb:
Was soll AMD offiziell bringen? :freak:
Noch keinen Kaffee intus 😏 Ich meinte bis es die Spielehersteller offiziell in die Games implementieren. So und nun muss meine Senseo mal was rausleiern 😁

Schönen Tag noch.
 
  • Gefällt mir
Reaktionen: twoface88, Mcr-King, Unnu und 2 andere
Asghan schrieb:
@Vitche
Im Artikel wird von "KI gestützt" gesprochen bei FSR. Hat genau das AMD eben nicht? Nur temporales Upscaling ohne KI (im Vergleich zu nVidia)
Genau! Das ist doch gerade das tolle daran! KI ist nur wieder Nvidia Marketing BLA BLA
 
  • Gefällt mir
Reaktionen: Bairok, Illithide, E2K3 und 3 andere
Asghan schrieb:
Im Artikel wird von "KI gestützt" gesprochen bei FSR. Hat genau das AMD eben nicht? Nur temporales Upscaling ohne KI (im Vergleich zu nVidia)
Ich frage mich sowieso wo und wann die "KI" zum Einsatz kommt. Heute wird ja alles "KI" optimiert aber kaum einer erklärt warum es dafür eine braucht und was genau sie denn Optimiert und anhand welcher Parameter
 
  • Gefällt mir
Reaktionen: Bairok, edenjung und adnigcx
@Vitche "Es wird nicht besser als besser als nativ" ... da ist ein "als besser" zu viel, kann das sein?

sonst: geil!
 
  • Gefällt mir
Reaktionen: edenjung und fullnewb
@sikarr
Die Bezeichnung "KI" wird eh total inflationär verwendet. KI hier, KI da. Alles ist mit KI besser. Dass sich dahinter maschinelles Lernen versteckt, wird halt nicht erwähnt. KI, im Sinne einer künstlichen Intelligenz gibt es (noch) nicht.

Würde mich als KI eh veräppelt vorkommen, wenn ich tagein tagaus Frames analysieren müsste. Ironie off

Schon interessant diese Mods. Was ich mich frage, ob am Ende auch das "Perfomace" Plus dabei rumkommt.
 
  • Gefällt mir
Reaktionen: Ernie75, Bright0001, Bairok und 5 andere
Tolle Sache. Warum nur AMD und NVidia nicht auf die Idee gekommen sind :confused_alt:
 
  • Gefällt mir
Reaktionen: Mario2002 und Speedy.at
Asghan schrieb:
@Vitche
Im Artikel wird von "KI gestützt" gesprochen bei FSR. Hat genau das AMD eben nicht? Nur temporales Upscaling ohne KI (im Vergleich zu nVidia)
AMDs 2.0 ist ein Algorithmus der einer KI in nichts nachsteht. Was anderes ist ein KI im Prinzip ja auch nicht..
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Speedy.at
Endless Storm schrieb:
Tolle Sache. Warum nur AMD und NVidia nicht auf die Idee gekommen sind :confused_alt:

Sind die doch - zumindest Nvidia. Wird auch im Artikel erwähnt.
Die Wirkung als Kantenglättung bleibt dabei erhalten, einen Leistungsschub in Form einer gesteigerten Bildrate gibt es allerdings nicht – lediglich die Bildqualität steigt; muddymind zieht folgerichtig die Analogie zu Nvidias Deep Learning Anti Aliasing (DLAA). Seine eigene Kreation nennt er in Anspielung daran FSRAA.
 
  • Gefällt mir
Reaktionen: Lübke82
@sikarr Wenn man sich die Disocclusion, Ghosting und Aliasing Probleme von FSR 2.0 selbst bei offiziell unterstützten Spielen ansieht und mit DLSS vergleicht, wird schnell klar, warum Nvidia einen Deep Learning Ansatz nutzt.

Überall da wo Daten fehlen (beim Disocclusion Problem eben Bildbereiche die im vorherigen Frame noch verdeckt waren und daher keine Bildinformationen aus den alten Frames genutzt werden können) zeigt sich, dass DLSS hier weit überlegen ist. (FSR 2.0 zeigt da sehr deutliche Artefakte, DLSS nicht)

Es ist also erstmal plausibel, dass hier Deep Learning zum Einsatz kommen muss, um zu entscheiden, wie mit diesen fehlenden/beschränkten Informationen bestmöglich umgegangen werden kann. Ich bin kein Mathematiker, stelle es mir aber unglaublich komplex bis unmöglich vor, das ohne ein deep learning Model so gut hinzukriegen.

Solange das also der Fall ist und AMDs Technik an genau den Stellen an denen Daten fehlen, versagt und Nvidia glänzt, solange kann man Nvidia nunmal kein Marketing BlaBla vorwerfen.

Irgendwann wird sich schon noch herausstellen, was richtig ist. Vielleicht kann AMD in Zukunft auch ohne vermeintliches DL zu Nvidia aufschließen. Wenn das der Fall ist kann man den DL Aspekt sicherlich in Frage stellen. Aktuell deutet aber alles darauf hin, dass DL den entscheidenden Vorteil bei Bildbereichen mit fehlenden Historiendaten bringt.
 
  • Gefällt mir
Reaktionen: .Sentinel., Convert, Lübke82 und eine weitere Person
W0dan schrieb:
Wenn man sich die Disocclusion, Ghosting und Aliasing Probleme von FSR 2.0 selbst bei offiziell unterstützten Spielen ansieht und mit DLSS vergleicht, wird schnell klar, warum Nvidia einen Deep Learning Ansatz nutzt.
Schonmal God of War mit FSR 2.0 gespielt?

In diesem Spiel trifft deine Aussage 0 zu.

Aber gut grüne Brille und so.
 
  • Gefällt mir
Reaktionen: Epistolarius, MasterAK, E2K3 und 16 andere
Fighter1993 schrieb:
Schonmal God of War mit FSR 2.0 gespielt?

In diesem Spiel trifft deine Aussage 0 zu.

Aber gut grüne Brille und so.

Oooof.
Sorry, aber genau bei dem Spiel trifft vieles davon zu. Hatte hier damals sogar Screenshots gepostet.
Das ist eine der bisher schlechtesten FSR2 implementierungen. Würde ich nicht nutzen wollen.

Und unterstelle mir was du möchtest, nur hab ich den direkten Vergleich zwischen DLSS und FSR und kann mir eine Meinung bilden. Kannst du denn auf deiner AMD Karte auch DLSS testen, um zu vergleichen? Ich denke nicht. Also mal bitte die Luft anhalten.
 
  • Gefällt mir
Reaktionen: Knito, Lübke82, Khalinor und 2 andere
Ich lehn mich mal aus dem Fenster ...

Aber ich glaube, wir sehen die Anfänge davon, dass DLSS untergehen könnte.
Ähnlich wie es damals bei G-Sync und FreeSync war ... der offene Ansatz von AMD führte dazu, dass FreeSync mittlerweile unter Adaptive Sync oder VRR fest zum Standard gehört.
Von den teuren FPGA Implementierungen von Nvidia greifen immer weniger.

ABER es brauchte auch erst Nvidia, damit AMD hier in den Quark kommt ^^

Wenn modder schon spiele nachträglich patchen können (nicht optimal) dann dürften das mehr und mehr Entwickler in zukunft anwenden, weil es eben alle GPU Hersteller unterstützen könnten.
 
  • Gefällt mir
Reaktionen: Bairok, Daggy820, surtic und eine weitere Person
Zurück
Oben