• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News The Witcher 3: Systemanforderungen nur für 30 FPS

holzbursche schrieb:
crysis wurde durch killzone 4 abgelöst, crysis 3 ist nicht mehr die grafikvorzeigebombe. das ist jetzt killzone, achja und metro ll
dass immer noch crysis erwähnt wird wenn es um die beste grafik geht. komisch, manche sind irgendwie in der vergangenheit stecken geblieben

Funny, ein Konsolenspiel wird niemals auch nur annähernd an z.B. Crysis 3 rankommen...
 
Also Metro Last Light ist kein Konsolenspiel und es schaut absolut fantastisch aus ! Zu Killzone kann ich nix sagen, da ich keine Konsole besitze ^^.
 
Vielleicht ist mit den Einstellungen ja nicht nur Ultra, sondern auch aktives Übersampling gemeint. Bei The Witcher 2 hat dieses ja damals schon zu schweißtreibenden GPUs geführt:

IMG0036567.gif
 
Übersampling ist das schlechteste Feature das es je in einem Spiel gab. Man erkennt absolut keinen grafischen Unterschied es halbiert die FPS aber. Downsampling ist immer deutlich besser und effizienter als der Scheiß. In Witcher 2 hatte ich mit Übersampling 40fps und mit 2560x1440 Downsampling konstante 60fps.
 
Downsampling ist immer deutlich besser und effizienter als der Scheiß.
Äh, nur mal so, das ist nichts anderes als Vierfach-Downsampling...

Vielleicht ist mit den Einstellungen ja nicht nur Ultra, sondern auch aktives Übersampling gemeint.
Das wage ich aber dann doch mal zu bezweifeln. Das würde im Umkehrschluss quasi bedeuten, dass das Spiel grafisch nicht viel anspruchsvoller wird als Witcher 2. Und das kann ich mir dann doch nicht so ganz vorstellen, immerhin liegen dann ziemlich genau 4 Jahre dazwischen.
 
The Witcher 2 lief bei mir auf meinem alten Rechner (E8200, 4GB RAM, GTX 560ti) bei fast maximalen Details (das Ultrasampling aus) bei rund 30 FPS. The Witcher 3 sollte also bei minimalen Details besser aussehen als The Witcher 2 um das zu rechtfertigen, ist aber eher unwahrscheinlich (schönes Beispiel sind Hitman 3 und Blood Money, letzteres brauchte auf minimalen Details einen PC der für Teil 3 auf maximalen Details reichte, nur sah Blood Money darauf sehr hässlich aus).

Ich denke aber, dass ein mittelprächter Rechner (i5/FX6300-8xxx, 8GB RAM, GTX 670/HD 7950) ausreichen sollte für mittlere bis hohe Details, zumindest hoffe ich das. Primär gehts mir bei dem Spiel eher ums Gameplay und Story, es sollte aber nicht schlechter als auf der PS4/XBONE aussehen bei einem durchschnittlichen Rechner.
 
@MountWalker
Danke für die Erklärung der auftretenden Übelkeit.
Hab mich schon gewundert, das es mir beim spielen schlecht wird, und das war "The Whitcher 2".
Sehr eigentümlich, fühlt sich an wie Seekrankheit und ist in meiner langen "Spielerkarriere" bei keinem anderen Game
jemals aufgetreten. Wieso bei diesem Spiel?
MfG
 
MountWalker schrieb:
Crysis1 sieht nur und ausschließlich in Sachen Texturqualität hervorragend aus - ausgerechnet die Füllrate ist aber bei den Grafikchips in den letzten 7/8 Jahren nur schleichend gestiegen. Bei Crysis sieht man auch weniger, als man denkt. Wenn ich in GTA4 das Pendant zur 5th Avenue runterblicke seh ich vielleicht zehn oder zwanzig mal so viele Objekte, wie bei einem Blick in Crysis.

Eher die licht und schatteneffekte die Texturen waren schon damals oft schlecht aufgelöst. Und wenn ich crysis mit dem 2. (Nach dem dx und dem texturenpatch) oder gar 3. Teil vergleiche schmiert crysis 1 schon ab und zwar was Grafik und Hardwareanforderungen angeht. Ach und Btw Texturen schlucken gar nicht mal so viel zumindest nicht wenn ich nach diversen twxturmods gehe oder wie wenig Einfluss die Texturenqualität bei den meisten modernen spielen auf die Performance hat.

Was tw 3 angeht ich warte ab was die Benchmarks beim relasetag sagen.
 
Sieht man sich die Verkaufszahlen aktueller Grafikkarten an, ( GTX 970 ),möchte ich bezweifeln, das ein engagierter
Gamer irgendwelche Probleme mit der Performance von "ThW3" hat. Ob das Spiel die Erwartungen hinsichtlich "Gameplay" (Steuerung PC) und "Open World" erfüllt wird sich zeigen.
 
King Vendrick schrieb:
Übersampling ist das schlechteste Feature das es je in einem Spiel gab. Man erkennt absolut keinen grafischen Unterschied es halbiert die FPS aber. Downsampling ist immer deutlich besser und effizienter als der Scheiß. In Witcher 2 hatte ich mit Übersampling 40fps und mit 2560x1440 Downsampling konstante 60fps.


Das ist ziemlicher Unsinn. Die "Ubersampling"-Einstellung im Grafikmenü von TW2 aktiviert nichts anderes als 4xOGSSAA, was sich technisch von Downsampling (3840x2160@1920x1080) nicht unterscheidet. "Schlecht" ist an dem Ganzen nur, dass die Option nicht besser skalierbar ist, etwa auf 2xOGSSAA, zwecks besserer Bildraten.

Dass du mit DS @ 1440p bessere Bildraten erreichst als mit aktiviertem "Ubersampling" erklärt sich daher ausschließlich aus dem niedrigeren effektiven AA-Faktor. Mit höherer Effizienz hat das rein gar nichts zu tun.
 
Dass du mit DS @ 1440p bessere Bildraten erreichst als mit aktiviertem "Ubersampling" erklärt sich daher ausschließlich aus dem niedrigeren effektiven AA-Faktor.
Fun Fact: Gestern mal ausprobiert, mit ÜberSampling bekomme ich aus dem Spiel locker 30-50% mehr FPS herausgequetscht als mit 4k-DSR. Von wegen Effizienz und so.

Wahrscheinlich werden gewisse Dinge, wo man es eh nichts sähe, nicht in höherer Auflösung gerendert (SSAO, Post Processing-Effekte, ...) - ganz dasselbe kann es also nicht sein, der Effekt ist aber derselbe. Und da ziehe ich die 30-50% mehr FPS natürlich vor
 
Artikel-Update: Auf einer polnischen Fan-Webseite beantwortete einer der Entwickler Fragen der Spieler. Dabei bestätigte er unter anderem, dass die empfohlenen Systemanforderungen nicht für maximale Grafikeinstellungen angegeben wurden. Stattdessen sollen diese für 30 Bilder pro Sekunde bei mittleren bis hohen Details auf 1.920 × 1.080 Pixel ausreichen. Angaben, für welche Einstellungen die Mindestanforderungen ausgelegt sind, fehlen weiterhin.
 
Dobii schrieb:
30FPS? Dann wird es eben erst in irgendeiner sale Aktion gekauft...

Was isn das für ne Logik? Spiel hat Hardwareanforderungen=schlecht?!? Stell die Grafik runter und spiel mit mehr fps, man kann ja echt über alles meckern.

Auf anderen Seiten sind die Leute aber auch schon abgegangen wie sau, da scheinbar ein sehr großer Teil zu dumm zum lesen ist, die sehen da irgendwo 30 fps und schließen sofort auf ein 30fps-lock und fangen an zu flennen.
 
Zuletzt bearbeitet:
Dann wird es wohl Zeit für ein Sockel 2011-3 System mit 8-Kerne CPU und 2xGTX980.
 
@Holzbursche: Geil, zuerst kommst du mit deinem 30 FPS-Gelaber, dann damit das Killzone 4 besser aussieht als Crysis 3. Ich Frage mich bei deinen Beiträgen echt wer in der Vergangenheit lebt? Killzone sieht für eine Konsole wirklich sehr gut aus, keine Frage. Aber in Sachen Grafik zieht es gegen Crysis 3 den kürzeren, erst recht mit Kantenglättung.

@All: Die 30 FPS sind doch nur für mid/high Einstellungen? Das Spiel wird langsam interessant ^^
 
Auf einer polnischen Fan-Webseite beantwortete einer der Entwickler Fragen der Spieler. Dabei bestätigte er unter anderem, dass die empfohlenen Systemanforderungen nicht für maximale Grafikeinstellungen angegeben wurden. Stattdessen sollen diese für 30 Bilder pro Sekunde bei mittleren bis hohen Details auf 1.920 × 1.080 Pixel ausreichen. Angaben, für welche Einstellungen die Mindestanforderungen ausgelegt sind, fehlen weiterhin.

nochn größerer fail als schon vorher durch das update der news lol.. also da übertreiben die es aber maßlos. dying light sieht besser aus als witcher und läuft mit fast allem maximiert über 30fps mit einem rechner wie meinem (bis auf sichtweite, aber das macht kaum nen unterschied).
 
glaub da wird ein CF fällig ... ^^
NV kauf ich nimmer

oder Nvidias GameWork arbeitet einfach nur so schlecht ^^
 
Durch spielinternes Downsampling etc waren nur wenige fps möglich, selbst auf High-End-GPUs.
Das war ein SSAA Glättungs Mode, der die Texturen vermatscht hat, ergo hat man den Mist besser weg gelassen. Kann mich noch gut erinnern, hatte ohne das SSAA mit einer 580 3GB dann soviel Leistung über das ich die überschüssige Rohleistung dann in extrem hohe Auflösung stecken konnte. Damals noch mit einem 22" CRT mit 2500x1600er Auflösung, also der Vorläufer vom DSR, einfach mal dynamisch je nach Rohleistung die Auflösung erhöht. :)

Würde mich auch wundern wenn die nicht beim Ultra Mode dann eine Titan II fordert um auf 30+ min. FPS zu kommen. Da ist NV schon dahinter mit Gameworks + PhysX das der GPU Absatz bei Ultra stimmt. :rolleyes:

Werd das Game eh nicht vor der EE Version(2016) starten, will ein komplettes möglichst fehlerfreies Game haben.
 
Zuletzt bearbeitet:
Ach ich wart einfach auf das Spiel und schau mir dann an wie es läuft :) Sie haben ja schon selbst gesagt dass sie noch optimieren und bis das Spiel raus ist dauerts ja auch noch ne weile.
 
Zurück
Oben