Test Nativ vs. DLSS 4.5 vs. FSR AI: Ihr wählt euren Favoriten in sechs Spielen im Blindtest

A.Xander schrieb:
Naja auch Decoder Chips werden besser Ada 8th Gen Blackwell 9th Gen.
Ja schon klar, trotzdem hatte ich im Hinterkopf, dass es hier ja immer hieß, dass RTX5000 kaum besser/schneller als RTX4000 sei.
Ich bezog mich ja auf den Beitrag von @Mimir der mit ner 4080 ~60% Decode Last hatte. Den Unterschied fand ich dann schon krass für "kaum besser/schneller" - auch wenn die Videodecode Performance sicherlich ein Rand- und Spezialfall einer GPU ist.

A.Xander schrieb:
Davon abgesehen das ist Cyberpunk 2077 bei mir mit 0,5 Speed.
0,5 Speed ist ja die Standardeinstellung, hatte ich so gelassen, aber auch nochmal dazu geschrieben.

A.Xander schrieb:
30% war ANNO 117 nicht CP 2077 das macht einen Unterschied, ebenso kommt es auch auf die Abspielgeschwindigkeit an.
Das hatte ich übersehen, Bei Anno sind bei mir im Mittel 19% Decode Auslastung (schwankt zwischen 18-20)

1/3 bessere Decode Performance sieht jetzt auch wieder realistischer aus für "den kleinen Generationssprung". ^^
 
Snapuman schrieb:
0,5 Speed ist ja die Standardeinstellung, hatte ich so gelassen, aber auch nochmal dazu geschrieben.

Wenn du es genau wissen willst: Ich hatte das Arc Raiders Video getestet mit 1x Speed. Mir gings eigentlich nur um den Vergleich ICAT vs kein ICAT. Aber ihr macht jetzt wieder ne Benchmark Orgie draus :lol:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Snapuman
Alles gut sollte kein Schw*vergleich werden, hatte mich tatsächlich nur gewundert. ^^
 
  • Gefällt mir
Reaktionen: Andre83hro
Ich nutze das neue Transformer-Modell (Modell L oder M), das in der NVIDIA App für The Outer Worlds 2 (Unreal Engine) eingestellt werden kann, und ich bin sehr zufrieden. Man muss zwar HDR ausschalten, da es sonst Grafikfehler gibt, aber die 4x Frame Generation ist gut.

Mit DLSS High Quality (noch kein DLAA) läuft es bei mir butterweich mit 4-facher Frame Generation und mehr als 120 FPS. Ohne diese Frame Generation wäre das nicht möglich. Auch der Input Lag ist nicht vorhanden bzw. für mich nicht spürbar. Ich habe Tests gesehen, die bestätigen, dass NVIDIA Reflex + Boost die Latenz ordentlich drückt – weit mehr, als die Frame Generation an Millisekunden Verzögerung hinzufügt.

Ich war eigentlich kein Fan von Frame Generation und Upscaling, aber die Qualität und Leistung sprechen für sich. Mit DLSS 4.5 ist es einfach butterweich geworden und meiner Meinung nach besser als andere Anti-Aliasing-Methoden wie TAA. Das sagen auch andere Experten und Tests – dem schließe ich mich nur an.

Die Idee, Anti-Aliasing mit Upscaling zu verbinden, um Speicher und Rechenleistung zu sparen und das Bild so schneller zu rendern, war genau richtig, um Bilder effizienter zu erzeugen.
 
  • Gefällt mir
Reaktionen: Snapuman
Alphanerd schrieb:
Noch dranschreiben, dass die beim ersten Vollmond des Jahres von Jungfrauen mit den Füßen mundgeplöckelt wurden. Direkt nochmal upselling. Machen die bei Audio auch so.
Unser Edeka verkauft Mondschein Wasser, das nachts bei Vollmond abgefüllt wird. Der Markt wäre da. 🤑
 
  • Gefällt mir
Reaktionen: Fresh-D und Alphanerd
Danke für den Blindtest. War sicherlich aufwendig zu erstellen. Ich bin wirklich auf das Ergebnis gespannt. Es hat spaß gemacht sich mal Zeit zu nehmen und die einzelnen Ausschnitte für sich selbst zu analysieren.
 
Nach knapp 600 Beiträgen zum Thema, habe ich das Gefühl, nein, ich bin mir ganz sicher, geht es eher darum, welche Kaviarsorte es einem besser schmeckt. Früher ging es darum, zumindest nicht unter 45 fps dauerhaft abzurutschen. Inzwischen muss es mindestens 120 fps sein und beim Schnappbild, sogar stark vergössert, ideal aussehen. Dabei vergessen wohl dieselben, dass die meisten sich solche Grafikkarten gar nicht leisten können.

Ich biete drum nochmal, testet XeSS gegen ! Dann habt ihr nochmal 1000 Beiträge zum Kosten / Nutzen. Damit wären alle abgedeckt, weil das wirklich für alle nützlich und dienlich wäre. DLSS ist doch nur für Nvidia Karten-Besitzer da und FSR 4 nur für die neueste Generation der AMD Karten-Besitzer nutzbar. Sind denn hier wirklich alle, die stets die allerneueste Hardware besitzen, sobald die verfügbar ist?
 
  • Gefällt mir
Reaktionen: Sun-Berg, Fresh-D und Andre83hro
Alphanerd schrieb:
Ist das ein gesponserter Post?
Hatten ja sonst nicht genug Nvidia Forenbeauftragte hier :D

Svennc schrieb:
Diso... was? :D (Ich wills gar nicht wissen, hier sind bestimmt wieder Upgrade-Trigger versteckt).

Bin aber auch gespannt. Falls die Bubble hier schlecht abschneidet, kann sich jeder vorstellen, wie es mit den Normalspielsterblichen ausschaut. :D
Das ist ein Side-by-Side Vergleich, den man sich mehrmals in Slowmotion anschaut und öfter pausiert, um möglichst alle Details zu vergleichen. Jetzt stell dir vor, man hätte nur eines der 3 Videos und müsste dann sagen, ob das FSR oder DLSS ist... ^^
 
  • Gefällt mir
Reaktionen: NNBombito, Andre83hro, Alphanerd und eine weitere Person
MaverickM schrieb:
Was aber auch erst einmal zu beweisen wäre. Abgesehen davon, dass für mich nichts außer Quality in Frage kommt. Lieber Spiel-Details noch etwas senken.
So dachte ich auch zu Zeiten von DLSS 2/3, damals war der Unterschied zwischen Quality und Balanced/Performance sehr deutlich: weicheres Bild, einige Details (oft Partikel) verschwanden und in Bewegung wurde es auch merklich unschärfer. Immer bezogen auf meine subjektive Wahrnehmung auf 4k 65" OLED mit etwa 2 m Sitzabstand

Dann kam DLSS4 und Model K, dass auf meiner 4070Ti etwa 10% an fps kostete, der Zugewinn an Bildqualität war aber massiv, so dass es klar war es wird genutzt. Um die fps etwa gleich zu halten musste ich dann zähneknirschend auf Balanced runter. Die mentale Hürde war groß basierend auf den Erfahrungen mit vorherigen Versionen, aber siehe da, in der Praxis sah DLSS4 Balanced immer noch merklich besser aus als DLSS3.5 Quality.

Selbes Spiel jetzt mit DLSS4.5 und Model M, um die fps zu halten musste es jetzt Performance sein. Und wieder das gleiche Spiel, erst Skepsis, in der Praxis sieht für mich Performance Model M sogar besser aus als Quality Model K!. Das Bild ist insgesamt in Sachen Schärfe und Detailreichtum sehr schwer von einander zu Unterscheiden (man muss schon nah ran und gezielt suchen), aber mit Model M wurden einige bisher störend auffallende Probleme von DLSS verbessert: weniger Ghosting, Partikel werden kaum noch Verschluckt.

... mit meinen langsam aber sicher schlechter werdenden Augen werde ich in ein paar Jahren wohl mit DLSS 5 Ultra Performace glücklich sein, da ich den Unterschied nicht mehr sehen kann :freak:

Update: Bin jetzt durch und stimme bei allen mit der Mehrheit über ein. Satisfactory fand ich am schwierigsten zu bewerten, da dort alle mit Aliasing und Buckwellen Probleme hatten. Bei nahen Zoom war es oft Klar welches Bild am klarsten ist, aber in Bewegung dann speziell bei Wegetation etwas flimmert, das sind Eigenschaften, die Preset M zugerechnet werden. Es fehlte leider eine Szene mit viele Partikeln.
Bin auf die Auflösung gespannt, und bitte als Nachfolgeartikel ein Vergleich bei Performance, und anstelle von Nativ+TAA bitte XESS.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xexex
xexex schrieb:
Wenn die blinkenden Lichter bei Satisfactory mit DLAA/FSR Native AA verschwinden würden, wäre es für mich alles nur nicht "wenig Verbesserung".
Das wäre es nicht richtig. Aber das ist icht mein Genre. Das was ich so spiele wird kaum mit so einem Extremfall aufwarten. Und selbst wenn bleibt es trotzdem bei der eigentlichen Aussage.
A.Xander schrieb:
Den momentanen Aufpreis für NV würde ich aber auch nicht bezahlen, dann lieber eine höhere Stufe FSR und weniger fps. Bei ADA Lovl. waren 110€ ok.
Dann wird das Game nicht gekauft.
30% Aufschlag wären mir zuviel.

Snapuman schrieb:
dass RTX5000 kaum besser/schneller als RTX4000 sei.
Ja das ist wohl so ne Sache im Streamingbereich, hab da aber auch nur mal kurz reingeschaut. Bin da zu weit von dem Thema weg. Der erzählte etwas von einem Prozent bessere Bildqualität, da dachte ich mir fällt ganz bestimmt auf und hab es weggeklickt.
Wollte mich da nur mal bissl über die Codecs informieren.
Ich weiß was ich einstellen muss um mit OBS Games aufzunehmen das reicht mir.
 
Insgesamt 7 x 15 Minuten netto, brutto sollten so 2 Stunden dabei herumgekommen sein. Bei mir auf mehrere Tage verteilt und am Ende bin ich auch nicht klüger, als am Anfang. Habe mal "ich sehe da keinen Unterschied" generell ausgewählt, weil in den Details, wie z.B. Vegetation, Oberflächen und Bewegungs(un)schärfen, usw. mal das eine, mal das andere Video vorne lag. Ich sehe da überall sowohl Vor- als auch Nachteile.

Hat die zum Anschauen der Videos verwendeten Hardware irgendwie einen Einfluss auf das Geschehen?

Bei der von mir zum Anschauen verwendeten Hardware handelt es sich um einen 4K-60Hz-Monitor, der von einer Intel Arc-8-Core-iGPU mit XeSS AI Super Sampling in einem Ultra 7 155H an 32 GB RAM befeuert wird.

Damit spiele ich tatsächlich allerlei Spiele, bis hin zu Anno 117. Kommt dafür auch noch eine Testreihe? 😉 😁
 
A.Xander schrieb:
Das was ich so spiele wird kaum mit so einem Extremfall aufwarten. Und selbst wenn bleibt es trotzdem bei der eigentlichen Aussage.
Keine Ahnung was du spielst, aber blinkende Beleuchtung kann es in fast jedem Genre geben, auch wenn das bei Satisfactory sicherlich auch an der Engine selbst liegen könnte. Einige Fehler dürften dem Upscaling an sich geschuldet sein, die Behauptung die Unterschiede zwischen den Stufen sind gering, wäre dann schlichtweg falsch.
 
SuperHeinz schrieb:
Habe mal "ich sehe da keinen Unterschied" generell ausgewählt, weil in den Details, wie z.B. Vegetation, Oberflächen und Bewegungs(un)schärfen, usw. mal das eine, mal das andere Video vorne lag. Ich sehe da überall sowohl Vor- als auch Nachteile.
Dir ist aber hoffentlich schon klar das 1, 2 und 3 bei jedem Video quasi neu gewürfelt wurden, oder?
Wenn du Unterschiede siehst, wenn mal das eine, mal das andere "vorne lag", wieso wählst du dann nicht genau das dann auch aus? Das ist doch überhaupt der ganze Sinn von diesem Blindtest...
 
Ich finde es ist recht einfach die nativen Videos zu identifizieren: sie sind am unschärfsten und flimmern sichtbar. Daher ist es umso erstaunlicher, dass die Minderheiten, die für nativ gestimmt haben, nicht viel kleiner sind ^^ Das sind ja teilweise 100 Leute.

Die eigentliche Herausforderung ist DLSS von FSR zu unterscheiden. Bei Arc zB ist die 2 am schärfsten, dafür flimmert die 3 am wenigsten. 🤔
 
  • Gefällt mir
Reaktionen: Grestorn, Snapuman und Andre83hro
Wir haben den Blindtest um knapp eine Woche verlängert, dieser wird nun noch bis zum 16. Februar offen sein. Wer noch nicht teilgenommen ist, hat also noch etwas Zeit :)
 
  • Gefällt mir
Reaktionen: A.Xander, Grestorn und G00fY
Snapuman schrieb:
Dir ist aber hoffentlich schon klar das 1, 2 und 3 bei jedem Video quasi neu gewürfelt wurden, oder?
Ja, ist klar und trotzdem kann ich jeweils keinen klaren Sieger ausmachen. Was ich jedoch ein paar Mal könnte, ist einen Verlierer zu definieren. Aber diese Möglichkeit ist ja nicht gegeben.
 
ArilethDeTyr schrieb:
Ich nutze das neue Transformer-Modell (Modell L oder M), das in der NVIDIA App für The Outer Worlds 2 (Unreal Engine) eingestellt werden kann, und ich bin sehr zufrieden. Man muss zwar HDR ausschalten, da es sonst Grafikfehler gibt, aber die 4x Frame Generation ist gut.

Meinst du mit Grafikfehler die Artefakte um das HUD, die mit Frame Generation entstehen?

Das haben die Entwickler verbockt. Lässt sich aber ganz einfach beheben.

Unter
C:\Users\[NAME]\AppData\Local\Arkansas\Saved\Config\Windows

eine Datei "Engine.ini" erstellen und folgendes eintragen:

[SystemSettings]
r.Streamline.TagUIColorAlpha=0

Dann die Datei speichern und in den Dateieigenschaft den Schreibschutz aktivieren, sonst wird die Datei gelöscht, sobald du das spiel startest.

Schon hast du auch mit aktivem HDR keine Artefakte mehr.

Optional kannst du noch r.Tonemapper.Sharpen=0 einfügen, um den Scharfzeichner des Spiels los zu werden.
Der ist mit DLSS4.5 mMn. komplett überflüssig.
 
  • Gefällt mir
Reaktionen: ArilethDeTyr und Snapuman
Zurück
Oben