Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestResident Evil Requiem im Test: Grafikkarten-Benchmarks & Analysen zu Upsampling, Ray- sowie Pathtracing
Geht ja eher um die 9000er und die haben fsr4. Wieso sollte eine 9070/9070xt mit z.b. 1440p und fsr 4 Performance keine 30 fps schaffen? Wenn z.b. die 4070 55 fps schafft.
@Tevur Entweder ist FSR hier wirklich besser oder es ist ein Bug.
Spätestens zum Release kann man dann einfach mal mit Optiscaler die FSR Inputs auf DLSS mappen und schauen ob das Bild dann anders aussieht.
Zumindest im DLSS4.5 Vergleich sieht das Bild untypisch weich für DLSS4.5 aus. Das erinnert eher an DLSS3. Selbst wenn man wie ich in allen Spielen immer die Scharfzeichner ausschaltet sieht DLSS4.5 typischerweise deutlich schärfer und kontraststärker aus. Ich würde also eher auf einen Bug tippen.
Wir testen auch eine Menge anderes, was wiederum andere nicht machen.
Sprich, jeder setzt den Fokus auf etwas anderes, was er selbst für wichtig erachtet.
CPU-Benchmarks sind das in Requiem meiner Meinung nach nicht. Die sind natürlich schon interessant (einfach um zu sehen, was schneller ist), jedoch einfach nicht wichtig für das Spielerlebnis.
Daher testen wir lieber etwas anderes.
Normenn12596702 schrieb:
Könnten wir bitte auch ergebnisse ohne den KI Mist sehen? Mit Zielauflösung 100%
Ich vermute ein Bug, denn so hat sich DLSS 4/4.5 imo noch nie verhalten. Ich habe es zumindest so noch nicht gesehen. Mal schauen ob Nvidia noch etwas dazu sagt - sie wissen es seit gestern.
Geht ja eher um die 9000er und die haben fsr4. Wieso sollte eine 9070/9070xt mit z.b. 1440p und fsr 4 Performance keine 30 fps schaffen? Wenn z.b. die 4070 55 fps schafft.
Gibt ja genug die zwingend auf 4k bzw. wqhd quality spielen wollen und raytracing muss max ausgereizt werden. Muss keinen Sinn ergeben, aber manche wollen es so
Dafür zeichnet DLSS (4.5) in der näheren Umgebung nicht so sauber und (gerade beim zweiten Video/Vergleich) hat sogar hässliche blinkende Artefakte im oberen Teil des Glasfensters der Glastür im oberen Bilddrittel, während FSR hier nur minimales Flackern aufweist.
Beide nicht perfekt, aber FSR schlägt sich hier deutlich besser.
Liegt es unter anderem an der Engine das DLSS 4.5 noch nicht daran angepasst ist? (Nur eine Theorie. Ist ja 90% UE gefühlt heutzutage, leider.^^)
Ich denke Nvidia haut sicher in den nächsten Tagen/Wochen einen neuen Treiber raus oder wie wird das ablaufen?
Wird es dann evtl. nochmal einen Vergleich geben?
Danke Wolfgang für diese tollen Tests in den letzten Wochen!
Bei Techpowerup schreiben sie dass DLSS sich nach jedem restart auf "performance" stellt. Vielleicht ist das ein Grund für das schlechtere Abschneiden von DLSS im Vergleich zu FSR.
"Also, enabling PT will automatically engage DLSS with the "Performance" profile, and you cannot disable DLSS anymore, but you may select DLAA. In our press build, restarting the game will reset DLSS to "Performance" on every game start, overwriting your customization—hopefully this is just a bug."
@MaverickM
Jo hatte ich auch schon gepostet. Hier nochmal die Artefakte (bei DLSS 4.5), sind leicht zu erkennen. Die poppen im Video auf wie ein Feuerwerk!^^
Sowas kann ja sicherlich schnell gefixt werden?!
Hier nochmal ein Zoom.
links DLSS 4.5 rechts FSR AI.
Bei FSR gibt es aber auch Artefakte, nur sehr viel kleiner wenn man genau hinschaut.
Bei Techpowerup schreiben sie dass DLSS sich nach jedem restart auf "performance" stellt. Vielleicht ist das ein Grund für das schlechtere Abschneiden von DLSS im Vergleich zu FSR.
Garantiert nicht. Die Unterschiede zwischen DLSS performance und quality sind in 4K mittlerweile extrem gering. Den Unterschied würde man in einem Vergleichsvideo kaum erkennen.
Und unschärfer wird das Bild im Performance Modus sowieso seit DLSS4.0 nicht mehr. Das war ne typische Eigenschaft des CNN Models und trifft teilweise auch noch auf FSR4 zu. Aber mit DLSS4(.5) ist die Schärfe des Bildes und der Texturen nicht mehr vom Upscaling Faktor abhängig. Das war der hauptvorteil des Transformer Models.
Lass gut sein, mit Argumenten kommst nicht weiter xD
Gewöhn dich einfach dran das hier alle Benchmark Ergebnisse falsch beschriftet sind.
4K Benches gibts nicht mehr, das ist jetzt alles 2560x1440p mit Anti Aliasing (DLAA)
DLAA bzw DLSS kostet natürlich auf nvidias 20/30/40/50 unterschiedlich viel Performance was die Benches komplett sinnlos und nicht mehr vergleichbar weder untereinander noch zu älteren Benches macht.
Wenn man alle diese Fehler rausrechnet hast zumindest ne Baseline wenn du von 4kDLSS=2560DLAA(Anti Aliasing) ausgehst.
Warum? Macht doch keinen Sinn, wenn dieser "KI Mist" oft besser oder zumindest ein genauso gutes Bild bringt. Das ist die Zukunft. Wobei, eigentlich schon lange die Gegenwart.
@Pisaro Ohne KI Mist gibts das flimmern und schimmern des Todes, vor allem mit RT und PT. Wurde schon 1000x gesagt und es kommt trotzdem immer wieder...
8gb reicht für alles, Hört man immer wieder.
Wenn 8gb nicht reichen ist schlecht optimiert.
8gb reichen nur bei rt nicht.
8gb sind nur in 4k zu wenig
Jetzt sind wir ohne rt in wqhd bei 12gb vram angekommen.
Ja es ist ja nur das eine spiel.
Genau es ist immer nur das eine Game.
Jetzt liegt es weder an 4K noch an rt das 8gb nicht mehr reichen. Ich schätze nun zieht man den Optimierungen Joker