ElliotAlderson schrieb:
Wenn das so wäre, hätte @DevPandi das wahrscheinlich erwähnt, tut sie ja schließlich auch bei DLSS vs FSR.
Das Thema ist an der Stelle weitaus komplexer und ein Vergleich der Encoder gegen die Upsampler ist zwar möglich, wird der Sache nur nicht gerecht.
Vorsorglich - ich finde das Thema spannend und will antworten, daher mache ich das jetzt auch: Es muss jetzt wirklich zwischen den Rollen unterschieden werden, die ich beschreibe.
Bei FSR gegen DLSS gibt es für mich im ganzen zwei Winkel, wie ich an das Thema heran gehe und je nach diesem Winkel gewinnen die Unterschiede an Bedeutung oder sie verlieren an bedeutung.
Spiele ich aktiv ein Spiel, dann gehen die qualiativen Unterschiede zwischen FSR 1/2/3 und auch DLSS 2, 3 und 4 in der Hektik des Spieles unter. Je mehr auf dem Monitor los ist, je mehr ich machen muss, um so weniger achte ich auf die Unterschiede. Es gibt dann Artefakte - vollkommen unabhängig welchen Upsampler man wählt, die störend sein klnnen, während andere Artefakte nicht stören. Wichtig ist dabei auch immer die Ebene, auf denen die Artefakte statt finden. Ein Ghosting im Vordergrund, am besten noch an der Spielfigur oder den Gegner direkt vor der Nase ist echt schlimm. Ob jedoch im Hintergrund irgendwelche Kanten an Pflanzen etwas stärker oder weniger Stark flimmern, ob eine Textur super Scharf nachgestellt wird oder eine feine Linie fehlt? Das verliert in der Hektik an bedeutung. In Cyberpunk kann ich zum Beispiel sagen, dass mich beim Spielen weder FSR 2 noch DLSS 2, 3 und jetzt 4 wirklich enttäuscht hat, gleichzeitig hat mich aber auch keines vollendens überzeugt. Bei bestimmten Kleidungsstücken und dem Motorad zerfallen gefühlt alle Upsampler und das sogar in unterschiedlichen Zoom-Stufen. Das Ghosting an der Motoradscheibe bei FSR 2 wiederum sehe ich und es fällt mir auf, gleichzeitig stört mich das nach einem kurzen Augenblick nicht mehr, weil ich eh den Verkehr beobachten muss. Mir bleibt garnicht die Zeit darüber nachzudenken.
Das Bild dreht sich allerdings, wenn ich mir Gameplay ansehe oder wir in bestimmten Spielen auch eine zwischen Sequenz haben. Man wird dann zum
passiven Beobachter und dann sind solche Sachen wie die Kleidungstexturen in Cyberpunk 2077 schnell doch entscheidend und auch wenn alle Upsampler "generell" hier nicht wirklich gut sind, stört mich dann DLSS am wenigsten und kann es noch am besten rekonstruieren. Wenn dann ein Spiel ein Landschaftschwenk hat über einen Wald und es geht nur um die Landschaft gerade, dann fängt man an auch den Blick schweifen zu lassen und wenn dann grobe Artefakte im Hintergrund aufploppen, dann gute Nacht. DLSS ist hier im gesammten dann deutlich besser, weil es wesentlich weniger Problemstellen hat. Ich hab es jetzt auch bei Doom: The Dark Ages gemerkt. Wenn ich Spiele, dann stören mich die Probleme von FSR nicht so sehr, weil es in der Hektik der Kämpfe untergeht und auch der Fokuspunkt auf einer anderen Bildebene ist. In den Zwischensequenzen wiederum, sobald man da die Chancce hat das man sich langweilt und mal die Grafikpracht bewundern will, verliert FSR 3 hier auch wieder gegen DLSS. Keine Frage.
Bei der Diskussion um DLSS und FSR gehe ich immer aus diesen zwei Winkeln heran und habe da eine "gelassene" Stimmung. DLSS ist besser als FSR 1 - 3, keine Frage. Nur wenn ich aktiv spiele, achte ich eher auf andere Sachen.
Bei den Encodern ist dann schon wieder anders. Hier habe ich kein für mich aktive Komponente, ich sehe mir das Bild an und wenn da Artefakte im Vordergrund sind, dann stört es den Bildeindruck. Wenn Artefakte entsprechend groß sind, dann stört es den Bild eindruck. Wenn das Bild dank des Decoders verwaschen ist, dann ist das Bild verwaschen. Das springt einem beim Beobachten immer direkt an. Klar, auch hier gibt es für mich die Regel, dass ich Artefakte im "Hintergrund" nicht so störend finde wie im Vordergrund, nur neigt man bei einem Film eher dazu, auch mal den Blick schweifen zulassen, gerade wenn nichts los ist.
Dazu kommt bei den Encodern noch etwas hinzu, was hier eine Rolle spielt: Die Verwertungskette. Wenn der Encoder auf der GPU schon Artefakte erzeugt, dann werden die in der darauf folgenden Kette immer schwerwiegender. Es entsteht halt eine Kaskade. Und das habe ich selbst auch bei uns auf der Arbeit gemerkt, weswegen für unser Streaming auch eine RTX 30er Grafikkarte verwendet wird.
Klar bekommt man auch aus den RDNA-Grafikkarten "gute" Streams, nur spielt hier dann die gewählte Bitrate eine rolle. Bei Turing, Ampere und auch Ada Lovelace bekommt man ein deutlich bessers Bild als Ausgangsmaterial bei niedriger Bitrate, was gerade für Streams und dann darauf aufsetzend YouTube und Twitch wichtig ist. Und wenn ich bei RDNA für eine "brauchbare" Bildqualität 20 MBit/s benötige und bei Ampere nur 10 MBit/s für die gleiche oder teilweise bessere Bildqualität, dann ist das spätestens im Netzwerk für mich bemerkbar, gerade wenn wir auch mal wieder über einen Mobilfunk-Hotspot gehen müssen, weil wir eine Veranstaltung im freien Übertragen.
RDNA 4 ist hier nun deutlich besser geworden und mit Nvidia auf einem Level, aber Intel hat hier echt noch die Nase ein Stückweit vorne.