Test DLSS 4.5 vs DLSS 4 vs. FSR AI im Test: Die Bildqualität im direkten Side-by-Side-Video-Vergleich

janeeisklar schrieb:
Aus Erfahrung kommt für mich nur ReLive in Betracht.
Dann wäre der Test völlig wertlos und das weiß auch Wolfgang.

Auch wenn es nicht im Artikel explizit steht, kann ich mir nichts anderes vorstellen, als dass man als Profi-Magazin auch Profi-Equipment zum capturen verwendet. Alles andere wäre total absurd.
 
Zuletzt bearbeitet:
xexex schrieb:
Wenn du am Ende mit einer AMD Karte zwei Skalierungsstufen höher gehen musst, damit das angezeigte dem entspricht was die Nvidia Karte anzeigt, dann wurdest du von AMD schlichtweg betrogen
Der Punkt ist schon klar und auch nicht von der Hand zu weisen. Jetzt gibt es natürlich keine zwei Stufen über FSR-Quality, aber was ich entsprechend hätte tun sollen, wäre eine Nvidia Karte im gleichen Preisbereich wie meine 9070 (16GB) zu kaufen, also die 5070 (12GB) oder vielleicht sogar die 5060 Ti (16GB), um damit dann im DLSS-Modus zwei oder vielleicht sogar drei Stufen herunter zu gehen. So hätte ich dann immer noch ungefähr die gleiche Grafikqualität bei ähnlicher Framerate erzielt, wie mit einer 9070 auf Vollanschlag. Und wäre zudem nicht verarscht worden! Also zumindest nicht von AMD. :cool_alt:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Andre83hro
janeeisklar schrieb:
Und natürlich gilt, wenn FSR schon im Spiel etwas weicher ist, dann wirkt es im Video doppelt so weich, weil:
Ich verstehe überhaupt nicht wie ihr darauf kommt. Beim Test steht doch klar:

  1. Es gibt keine von YouTube bekannten Kompressionsverluste.
Das heißt hier wurden so hohe Bitraten genutzt, wahrscheinlich ab 250 mbit/s in 4K, dass es keine relevanten Verluste geben kann und die Unschärfe, fehlenden Texturen bei FSR real 1:1 so ist.
 
  • Gefällt mir
Reaktionen: Grestorn
Quidproquo77 schrieb:
Das heißt hier wurden so hohe Bitraten genutzt, wahrscheinlich ab 250 mbit/s in 4K, dass es keine relevanten Verluste geben kann und die Unschärfe, fehlenden Texturen bei FSR real 1:1 so ist.
Und das ist eben nicht der Fall. Es sind 50 Mbit/s und die Verluste sind offensichtlich (siehe Post #395 oder auch Post #426). Ich empfehle selbst mal ein paar Videos mit NVENC AV1 bei 50 Mbit/s in den hier getesteten Games zu erzeugen und mit unkomprimierten Screenshots zu vergleichen.
 
Zuletzt bearbeitet:
@Nolag Faszinierend, wie diese schreckliche Kompression nur AMD-Quellmaterial so zerstört. Muss ein cooler Algorithmus sein, der genau erkennt, um welches Quellmaterial es sich handelt.

Irgendwie ist das nur noch peinlich hier.

Und wenn das Quellmaterial so schlecht ist, dass keine Details und Konturen mehr da sind und die Kompression deswegen nur noch eine einfarbige Fläche erkennt, dann ist das sicher auch Schuld des Kompressionsalgorithmus.
 
  • Gefällt mir
Reaktionen: xexex
Es wäre ja vielleicht angebracht, zu warten bis sich @Wolfgang nach den ganzen Markierungen dazu äußert bevor aus den letzten 5 Seiten Mutmaßungen noch weitere 5 werden^^
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Grestorn
Ja, die Videos sind allesamt mit dem AMD- beziehungsweise Nvidia-Videoeinheiten aufgenommen worden. Diese arbeiten entsprechend nicht gleich und wir arbeiten auch an einer einheitlichen (externen) Lösung - im Moment gibt es diese aber schlicht noch nicht.

Entsprechend habe ich vor den Tests mir aber natürlich die optischen Unterschiede zwischen kompressionslosen PNG-Screenshots und den genutzten Videoeinheiten angesehen. Sind die Ergebnisse gleich? Natürlich nicht. Doch sind die Unterschiede groß? Nein, sind sie nicht. Diese sind deutlich kleiner als in den hier im Thread geposteten Videos. Die Unterschiede bei den von mir genutzten Einstellungen sind nur klein. Und schlussendlich haben da sowohl AMD als auch Nvidia mit zu kämpfen.

Genutzt wird dabei durchweg OBS mit den AMD- bzw. Nvidia-Einheiten, AV1 als Codec, 50 Mbps und die restlichen Qualität ist aufs Maximum geschraubt. Anders als bei H.264- und H.265- ist der AV1-Encoder bei AMD durchaus ordentlich und liegt nur geringfügig hinter dem von Nvidia. Das macht nur die allerkleinsten Unterschiede in den Videos aus.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und Pisaro
@Wolfgang

Ok, das hätte unbedingt mit in den Artikel gemusst. Speziell nachdem Du explizit auf die schwache YouTube-Komprimierung hinweist. Und natürlich, auch wenn Du der wohl berechtigten Meinung bist, dass die Video-Codes der Treiber keinen großen Einfluss haben, wird das in den Augen einiger den ganzen Vergleich wertlos machen.

Und meine gesamte Argumentation der letzten Seiten gleich mit... :)

Eine externe, brauchbare Capture-Karte ist nun wirklich nicht so teuer… Für mich war das eigentlich selbstverständlich. Deren Kompression ist sicher auch nicht frei von Fehlern, aber dann wären alle Streams gleich betroffen.
 
  • Gefällt mir
Reaktionen: Pisaro
Auch eine externe Capture-Karte muss ja mit einem Codec arbeiten und schlussendlich wird es auch dann auf NVENC hinauslaufen. Was ich damit sagen will: Irgendwo muss in irgendeiner form komprimiert werden. Ohne geht es nicht. Zumal man Flexibilität für Aufnahmen mit anderen Eigenschaften (Framerate) benötigt.

Aktuell wird halt für gewöhnlich immer doppelt komprimiert. Bei der Aufnahme und dann noch einmal für YouTube (oder wo auch immer). Mir ICAT komprimieren wir als quasi einziger nur einmal - bei der Aufnahme. YouTube und co. können damit nichts mehr kaputt machen. Die Aufnahme läuft noch nicht optimal, aber wir sind auf dem Weg dahin. Damit sind wir aber schon besser als quasi alle anderen.
 
@Wolfgang

Eine mögliche Alternative wäre aber, mit extrem hoher Bitrate den capture zu machen, also nahezu lossless (oder direkt lossless wenn möglich) und dann für den Vergleich auf der Website nur kleine Ausschnitte mit 50 Mbit/s AV1 zu nehmen.

Der Vorteil wäre, dass die 50 Mbit/s nicht mehr fürs gesamte 4K Bild draufgehen, sondern nur noch für einen kleinen Ausschnitt des ursprünglichen 4K Bildes mit 360p, 480p oder meinetwegen 720p.

Der verkleinerten Ausschnitt den man dann hier zum Vergleich bereitstellen könnte, würde so praktisch die vielfache Bitrate abbekommen. Komrimierung daher kaum noch ein Problem.

Nachteil wäre, dass man eben redaktionell vorbestimmen müsste, welchen Ausschnitt man zeigt. Man kann nicht mehr das volle 4K Bild anbieten und dem Leser die freie Auswahl des Ausschnitts lassen...

Aber ich sag mal so, selbst ein 1080p Ausschnitt aus der Mitte des Bildes würde die Bildqualität schon deutlich steigern. Sind immerhin bereits nur noch 1/4 der Pixel. Irgend ein Kompromiss muss sich da doch finden lassen.

Die vollen 4K bereitstellen zu wollen und die Bitrate bei 50 Mbit/s zu belassen wird jedenfalls unweigerlich zu Verlusten führen. Ich halte sie zwar im Vergleich momentan für wenig relevant, aber es wird sich ja trotzdem beschwert. Und die Bitrate auf 100 oder 200 Mbit/s zu erhöhen wäre natürlich auch unsinn. Ist sicher nicht wirtschaftlich bei dem erzeugten Traffic.
 
  • Gefällt mir
Reaktionen: Quidproquo77
@Wolfgang

Der Unterschied wäre dann, dass immer mit demselben Codec und nicht einmal mit dem AMD und einmal mit dem NVIDIA-Codec komprimiert würde. Das ist einfach ein Faktor, den man ausschließen sollte.
 
Richtig Lossless kannst du nicht aufnehmen. Da kommen Dateigrößen raus, das hält man nicht für möglich :D

Natürlich sind höhere Bitraten durchaus eine Möglichkeit. Ins unendliche kann man da aber auch nicht gehen, man benötigt ja auch noch sinnvolle Dateigrößen. Da darfst du dann nicht vergessen, dass maximal 3 Videos gleichzeitig laufen. Sprich, ist ein Video 100 MB groß, mussgleich 300 MB herunterladen. Wer nen Gigabit hat, für den ist das kein Problem. Mit 100 Mbit ists dann aber schon weniger lustig.

Für den übernächsten Artikel dieser Art gehe ich in der Bitrate jetzt einfach mal von 50 Mbit auf 60 Mbit hoch. Da sind die Videogrößen noch akzeptabel.

Nur kleine Ausschnitte von Videos darstellen ist aber nicht so ohne weiteres möglich. Dann habe ich eben erstmal nicht mehr das Originalbild, die Möglichkeit sich in ICAT auf gewisse Bildbereiche zu konzentrieren entfällt dann. Hinzu kommt, dass ich so ein Video ja erst einmal erstellen muss, aus dem Nichts kommt das ja auch nicht. Das wäre dann ein massiver Mehraufwand (wirklich massiv). Plus, das neue Video muss ich dann ja auch erstellen, sprich mit einem Codec bearbeiten. Das ist dann nochmal ein weiterer Schritt, der noch einmal einen Einfluss auf die Qualität hat.

@Grestorn Daran arbeite ich wie gesagt. Es wird aber noch ein wenig dauern. Ist nun aber auf dem Schirm und am Ende auch sinnvoll.
 
  • Gefällt mir
Reaktionen: Quidproquo77, N0Thing und Grestorn
Wolfgang schrieb:
Du opferst aber keine Bildqualität, sondern GEWINNST sogar welche. Steht so oft im Artikel. Vielleicht mache ich da auch mal bald was zu, damit das dann auch mal alle glauben :)
Dann bitte auch FSR/DLSS Native mit in den Vergleich aufnehmen.
 
  • Gefällt mir
Reaktionen: Andre83hro
Wolfgang schrieb:
Wer nen Gigabit hat, für den ist das kein Problem. Mit 100 Mbit ists dann aber schon weniger lustig.

300 MB sind bei einer 100 MBit VDSL Leitung 23 Sekunden - ich finde das immer noch lustig. Hab vorhin nebenbei das Arc Raiders Update mit knapp 12 GB gezogen - die 14 Minuten hatte ich auch noch übrig.

Ich hab damals noch mit einem 28,8K Modem angefangen, später dann 56K. Mein bester Kumpel hatte ISDN mit 64K - der göttliche heiße Scheiß.

P.s das sind rund 6 kb/s gewesen - heutzutage unmöglich, damit geht nicht mal ne SSH Sitzung
 
Lamaan schrieb:
Hardwareunboxed hat dazu ein gutes Video, es zeigt das Ghosting bei DLSS 4 und andere Dinge bei 4,5 btw. sehr gut und das alles ist für mich auch einfach nie und nimmer besser als nativ, nur weil hier und da mehr Details vorhanden sind, dafür gibt es zu viele Fehler:



PS: Man sieht gut wie viel lamngsammer die alten Karten geworden sind und das es so einige Verschlimmbesserungen gibt.

Viele Grüße

Ich habe es mal ohne Kommentar gesehen vorhin. Ich sehe da nun wirklich nicht generell, das unglaublich krass überlegene perfekte dlss 4.5. es sieht generell etwas überschärft aus finde ich.
Hier und dort etwas besser aber auch manchmal schlechter. Ich weiß noch wie ich dlss auf der 5070ti gesteset hatte und dachte jetzt habe ich das über upscaling mit endlich perfekter Kantenglättung. War es dann aber nicht.

Ob ich nun 10 Prozent mehr flimmern oder weniger habe ist mir dann auch egal.
Die Schärfe kann ich selbst nachregeln und in Bewegung im Spiel sehe ich da eh kaum Unterschiede in der Entfernung.

Aber die Fortschritte bei dem Thema sind natürlich begrüßenswert und beeindruckend.
 
Wolfgang schrieb:
Entsprechend habe ich vor den Tests mir aber natürlich die optischen Unterschiede zwischen kompressionslosen PNG-Screenshots und den genutzten Videoeinheiten angesehen. Sind die Ergebnisse gleich? Natürlich nicht. Doch sind die Unterschiede groß? Nein, sind sie nicht.
Klar, dass das kaum der Rede wert ist, aber dennoch ist die Lösung nicht ganz optimal, da hat @Nolag schon einen Punkt.
 
@Quidproquo77 Optimale Lösungen werden wir auch nie hinbekommen, so lange nicht jeder 10 Gbit Internet zu Hause hat und die Videoplayer solche Datenstreams auch überall flüssig abspielen können. Kann man es noch weiter optimieren, in unserem Fall? Ja - mit einem einheitlichen Videocodec komprimieren ist der Schritt, der bei uns noch fehlt (um den wir uns aber kümmern). Wenn das durch ist, sehe ich aktuell aber nicht, wie man es noch weiter verbessern kann. Den größten Hemmschuh, also YouTube (und co.), haben wir ja schonmal umgangen.
 
  • Gefällt mir
Reaktionen: Czk666, xexex, Quidproquo77 und eine weitere Person
Wolfgang schrieb:
Wenn das durch ist, sehe ich aktuell aber nicht, wie man es noch weiter verbessern kann.
Wie sieht es dann deiner Meinung nach damit aus, dass das Radeon Bild unschärfer bzw. weniger Detailreich wird?

Der AV1 Encoder ist von AMD ja mittlerweile richtig gut.
 
Quidproquo77 schrieb:
Klar, dass das kaum der Rede wert
Ich stimme zu dass die Unterschiede bei 100% Zoom und normalem Betrachtungsabstand gering sind. Auch die Unterschiede durch die Verwendung der verschiedenen Encoder sind dann vernachlässigbar. Das Problem ist aber, dass das so erzeugte Material nicht für einen Vergleich bei vergrößerter Darstellung geeignet ist. Die Verwendung von ICAT ermutigt das Zoomen im Material und dann sind die Unterschiede zu unkomprimiertem Material nicht mehr vernachlässigbar und es kann zusätzlich der Effekt auftreten, dass das unschärfere Material beim Vergleich überproportional schlecht repräsentiert wird, weil dann die nicht linearen Optimierungen des Codecs sichtbar werden. Das ist z.B. besonders in der AC Shadows Szene der Fall.
 
Zurück
Oben