Test The Witcher 3 Next Gen im Test: Benchmarks der Community zum Patch 4.02

Sly123 schrieb:
Die Leute sollen einfach die 1.32 genießen und gut ist.
Interessant, was die Leute immer so alles sollen oder nicht.

Habe es gerade mit aktuellem Patch, DLSS-DLL 3.1.1., DLSS Qualität, ein paar Mods und eigenem ReShade-Preset mal kurz angeworfen. Läuft mit allen RT-Optionen (Performance, mit Quality ca. -10 FPS ohne großartigen optischen Gewinn) soweit rund. Der Energieaufwand hält sich auch in normalen Grenzen:

1678796215469.jpeg


Also auch mit einer 3070 noch spielbar zu machen, wenn nicht gerade 100 FPS+ gewünscht sind. Dann kann aber RT noch immer deaktiviert werden. Ohne DLSS wird es allerdings spätestens in Novigrad eng werden. Dort würde ich RT deaktivieren, wenn nicht gerade Screenshots gemacht werden sollen.

Aber gerade die Innrenaum-Beleuchtung gewinnt mit RT enorm.

Wem das immer noch nicht reicht, kann auf die alte Version zurückgehen. NG braucht (leider) GPU-Power. Vielleicht noch immer zu viel für das Gebotene.
 
Zuletzt bearbeitet: (Typos)
  • Gefällt mir
Reaktionen: Monarch2, Tanzmusikus, Mcr-King und eine weitere Person
Vigilant schrieb:
Anhang anzeigen 1335880

Wem das immer noch nicht reicht, kann auf die alte Version zurückgehen. NG braucht (leider) GPU-Power. Vielleicht noch immer zu viel für das Gebotene.
Echt? Ich hatte in DX 12 immer eher den Eindruck, dass die CPU der Flaschenhals in Novigrad ist. Bestätigt zumindest auch Digitalfoundry so. Aber ich finde es sehr komisch, dass sich 40-50 FPS mit dem neuen Patch in DX12 weicher anfühlen als 130-144 FPS in DX11. Irgendwas hat CDPR signifikant in DX12 verbessert. Ich muss aber auch mal die DLSS 3.x dll probieren, dachte das bringt nur was mit 4000er Karten...was bringt das denn für Vorteile ohne FG?
 
thepusher90 schrieb:
Ich muss aber auch mal die DLSS 3.x dll probieren, dachte das bringt nur was mit 4000er Karten...was bringt das denn für Vorteile ohne FG?
Ist mir auch neu. Der Frage würde ich mich daher anschließen
 
  • Gefällt mir
Reaktionen: thepusher90
System: RX6800OC, 5800X3D, DDR4-3800, W11, 4.02
1.920 x 1.080, Preset „RT Ultra“, DLSS/FSR Quality: 40,2
1.920 x 1.080, Preset „RT Ultra“, DLSS/FSR Performance: 45,3
2.560 x 1.440, Preset „RT Ultra“, DLSS/FSR Quality: 32,8
2.560 x 1.440, Preset „RT Ultra“, DLSS/FSR Performance: 39
3.840 x 2.160, Preset „RT Ultra“, DLSS/FSR Quality: 22
3.840 x 2.160, Preset „RT Ultra“, DLSS/FSR Performance: 28,1

System: RX6800OC, 5800X3D, DDR4-3800, W11, 4.02
1.920 x 1.080, Preset „RT“, DLSS/FSR Quality: 58
1.920 x 1.080, Preset „RT“, DLSS/FSR Performance: 62,9
2.560 x 1.440, Preset „RT“, DLSS/FSR Quality: 48,7
2.560 x 1.440, Preset „RT“, DLSS/FSR Performance: 55,5
3.840 x 2.160, Preset „RT“, DLSS/FSR Quality: 33,2
3.840 x 2.160, Preset „RT“, DLSS/FSR Performance: 41,3

so erstmal der Anfang. Musste beim letzten "RT" Benchmark feststellen, dass Hairworks aus war. Musste ich alle nochmal machen, jetzt weiß ich, wie sich @Wolfgang manchmal fühlen muss. :D

RT.png

RT Ultra.png

Ergänzung ()

Mal noch eine Frage, wie ist das mit den anderen Settings wie Bewegungsunschärfe etc. die alle an? Die Presets scheinen die nicht zu beeinflussen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bullit1, Esenel und Jan
Jan schrieb:
Können das Problem mit den Abstürzen seit Patch 4.02 noch mehr Nutzer bestätigen?
absolut... gestern angespielt... ging alles gut.
Heute angespielt.. absturz, absturz absturz..,. (aber nur mit DX12.. mit DX11 gehts). Aktuell stürzt es schon beim Laden ab (bevor der Hauptbildschirm erscheint).
 
evtl mal die Settings-Dateien löschen? Aber nicht den Gamesaves-Ordner löschen!
C:\Users\deinUserName\Documents\The Witcher 3\
 
Vigilant schrieb:
Also auch mit einer 3070 noch spielbar zu machen, wenn nicht gerade 100 FPS+ gewünscht sind.
DLSS, RTX 3070.... dabei sieht das Bild nicht mal wie AC: Odyssey aus 2017 aus. Wozu dann das Jubeln?!
Ich sehe nur massenhaft gescheiterter Rekreationen. Keine neuen Ideen und schon gar nicht revolutionäres.

Betas und Remaster zum Vollpreis, die noch nicht einmal auf einem potenten Rechner laufen.... wo man noch Glück haben muss, dass es Monate später gepatcht wird. In den letzten paar Monaten sind so viele Vollpreis Titel rausgekommen.
Zuletzt ist Barotrauma rausgekommen. Seit 2019 in der Entwicklung. Im Grunde bloss ein Indie Titel, aber von Anfang an zum Vollpreis zu haben gewesen.
Bleak Faith: Forsaken, Wo Long: Fallen Dynasty, Hogwarts Legacy, Die Siedler 6. Ich bin mir sicher es setzt sich auch bei Starfield, The Last of Us und Diablo 4 fort.
 
Jan schrieb:
Können das Problem mit den Abstürzen seit Patch 4.02 noch mehr Nutzer bestätigen?
Ja, nach wenigen Metern Bewegung Absturz; habe FG aktiv, probiere dann mal FG auszuschalten. Spiel hat vorher problemlos funktioniert.

Nachtrag: Ohne FG funktioniert das Spiel!
 
Zuletzt bearbeitet:
System: 7900 XTX, 7950X3D, DDR5-6000CL30
1.920 x 1.080, Preset „RT Ultra“, DLSS/FSR Quality: 72
1.920 x 1.080, Preset „RT Ultra“, DLSS/FSR Performance: 80
2.560 x 1.440, Preset „RT Ultra“, DLSS/FSR Quality: 58,6
2.560 x 1.440, Preset „RT Ultra“, DLSS/FSR Performance: 69,8
3.840 x 2.160, Preset „RT Ultra“, DLSS/FSR Quality: 37,9
3.840 x 2.160, Preset „RT Ultra“, DLSS/FSR Performance: 49,6


Dann will ich mal 7950X3D mit 7900 XTX Benches beitragen.
EDIT: Patch 4.02
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bullit1, _Cassini_ und DeMeP
Ich habe seit 4.0 zwar keine Probleme mit Abstürze etc. aber seit dem gestrigen Patch fühlt es tatsächlich noch ruhiger und "smoother" an als zuvor.
 
peacermaker schrieb:
Wozu dieser Aufwand für eine 7 Jahre altes Spiel was ja selbst mit oberklasse Grafikkarten wie die RTX 3070
mit RT einfach nicht zu gebrauchen ist.
Haben die das entwickelt für die 0,05 % an Spielern die diese überteuerten stromfressenden Grafikkarten ihr
eigen nennen dürfen.
Also erstens ist die 3070 eine 3 Jahre alte Mittelklasse GPU.

Und zweitens sehe ich hier in 1440p mit dem RT Ultra Preset doch immerhin ~40FPS, das ist doch erwartbar bei so einer Karte und Ultra RT Settings
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: DanHot und H6-Mobs
System: 7900 XTX, 7950X3D, DDR5-6000CL30
1.920 x 1.080, Preset „RT“, DLSS/FSR Quality: 102,3
1.920 x 1.080, Preset „RT“, DLSS/FSR Performance: 110,9
2.560 x 1.440, Preset „RT“, DLSS/FSR Quality: 86,9
2.560 x 1.440, Preset „RT“, DLSS/FSR Performance: 98,1
3.840 x 2.160, Preset „RT“, DLSS/FSR Quality: 57,9
3.840 x 2.160, Preset „RT“, DLSS/FSR Performance: 71,7

Patch 4.02
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bullit1 und pray4mercy
System: RX6800XT UV, 7600X (UV+85W), DDR5-6000CL32
3.440 x 1.440, Preset „RT Ultra“, DLSS/FSR Quality: 34,8
3.440 x 1.440, Preset „RT Ultra“, DLSS/FSR Performance: 42,0

System: RX6800XT UV, 7600X (UV+85W), DDR5-6000CL32
3.440 x 1.440, Preset „RT“, DLSS/FSR Quality: 50,8
3.440 x 1.440, Preset „RT“, DLSS/FSR Performance: 60

Patch 4.02
Windows 11
RX 6800XT ist auf 1025mV undervolted, 7600X ist mit -30 all-core CO undervolted und bei 85W PPT.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: bullit1 und JohnDonson
Taxxor schrieb:
Also erstens ist die 3070 eine 3 Jahre alte Mittelklasse GPU.

Und zweitens sehe ich hier in 1440p mit dem RT Ultra Preset doch immerhin ~40FPS, das ist doch erwartbar bei so einer Karte und Ultra RT Settings


Weniger als 2,5 Jahre.

Zudem finde ich die Frage berechtigt. Warum ist das Spiel mit RT deutlich fordernder als z.B. Cyberpunk?

Es gibt zwar mittlerweile die Option die Qualität der GI zu reduzieren, trotzdem pfeifft jede GPU auf dem Niveau einer 3070 oder darunter aus dem letzten Loch.

Das wirkt so, als wäre RT nur noch mit aktuellen High End GPUs sinnvoll nutzbar, wo wir doch jetzt seit Jahren schon Spiele haben, in denen RT viel weniger Leistung kostet und trotzdem einen Mehrwert hatte.

Bis Dato war Cyberpunk auch noch einer der mit abstand fordernsten RT Titel und jetzt setzt Witcher 3 nochmal einen drauf, ohne wirklich sinnvoll skalierbar zu sein.

Zumal die CPU Anforderungen mit RT immernoch extrem hoch sind. selbst wenn man nur eine RT Funktion aktiviert. Auch hier deutlich schlechtere (CPU) Performance als in Cyberpunk. So schlecht, dass es eigentlich nur mit Frame Generation sinnvoll ist, überhaupt erst RT anzuschalten.


Ich verstehe halt diesen "Trend" nicht von wegen, dass RT jetzt auf einmal nur noch auf HighEnd Systemen nutzbar sein soll (siehe auch Portal RTX) wo wir vor 1-2 Jahren noch so weit waren, dass es auch auf mittelklasse Systemen gut nutzbar war.
Siehe Metro Exodus Enhanced. Das ist weniger fordernd als Cyberpunk und hat ein Wahnsinns Upgrade durch RT bekommen.
Jetzt hübscht man Witcher mit ein wenig RT auf und plötzlich ist das ding 50% fordernder als Cyberpunk - der RT Showcase schlechthin.

Das riecht halt alles ziemlich fishy...

Ich würds verstehen, wenn man die Anforderungen bei neuen Spielen weiter anzieht. Aber dass die Einstiegshürde gerade bei so alten Spielen so hoch liegt, ist für mich nicht nachvollziehbar. Gerade bei so alten Spielen würde selbst minimalstes RT schon viel Mehrwert im Vergleich zum ursprünglichen Spiel mit seinen veralteten Grafiktechniken bringen. Mehrwert, den man auf RTX2060 und co eigentlich gut und sinnvoll nutzen könnte.
Stattdessen wird hier massenweise RT fähige Hardware der letzten 2-4 Jahre für nahezu unbrauchbar erklärt und die User die die RT Fähige Hardware haben sind jetzt bei so nem alten Spiel trotz RT Upgrade praktisch dazu genötigt RT aus zu machen und profitieren nahezu gar nicht von den Möglichkeiten ihrer Hardware, wenn sie nicht bereit sind die performance komplett in den Keller zu drücken.

Das ist einfach nur verdammt schade um die Hardware und vergeudetes Potenzial.
 
Zuletzt bearbeitet:
Mimir schrieb:
Warum ist das Spiel mit RT deutlich fordernder als z.B. Cyberpunk?
Weil es ursprünglich nicht mit RT bzw nicht mal mit DX12 entwickelt wurde. Alleine der DX12 Wrapper wird schon so viel Leistung verpuffen lassen, das sieht man ja auch an der Performance ohne RT, die ebenfalls deutlich schlechter geworden ist, selbst mit den alten Settings.

Und zu Cyberpunk, da siehts seit Patch 1.5 auch nicht so toll aus mit vollen RT Settings, und selbst mit RT Mittel Preset kommt eine 3080 gerade mal auf knapp 40 FPS
Screenshot 2023-03-14 201644.png


Und das nächste RT Update für Cyberpunk kommt ja jetzt erst noch, womit die Beleuchtung im Grunde komplett Pathtraced wird.
 
Zuletzt bearbeitet:
Sehr merkwürdig. Also ich hab zwar bisher nur Videovergleiche gesehen, doch in diesen steigt die CPU-Utilization selbst in Novigrad gerade mal um 2% an und die AVG- und 1%-FPS steigen gut, doch dafür gibt es heftiges Stuttering. Sicher dass der Patch nicht nur für die Konsolen die Performance steigern soll? :D
 
Mimir schrieb:
Ich verstehe halt diesen "Trend" nicht von wegen, dass RT jetzt auf einmal nur noch auf HighEnd Systemen nutzbar sein soll (siehe auch Portal RTX) wo wir vor 1-2 Jahren noch so weit waren,
Also Portal ist auch ein reshade Raytracing aka schmutz Raytracing und die Engine ist auch aus der Steinzeit.
In The Witcher3 hat wenigstens eine echte Implementierung stat gefunden!
 
Es läuft auch ohne mods jetzt ziemlich sahnig bei mir. Endlich.
 
Zurück
Oben