• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News The Witcher 3: Systemanforderungen nur für 30 FPS

Ich finde die Grafikkartenanforderungen eigentlich ganz in Ordnung, gut aussehende Spiele brauchen halt auch schnelle Hardware, wozu kauft man sich sonst teure Hardware? Damit irgentein Spiel wie dreimal durchgekaut aussieht und dann mit 300FPS läuft? Die Minimalen Systemanforderungen packt jeder spieletaugliche Rechner, alles andere macht eh kein Spaß mehr und auch die Empfohlenen Angaben sind noch im rahmen, wir reden hier von einer GTX770, die Frühjahr 2012 als GTX680 auf den markt kommt und beim Spielerelease 3 Jahre alt ist. Für eins der schönsten Open World Rollenspiele finde ich das durchaus angemessen.

Irgendwann kann man einfach auch nicht mehr jede alte Hardware supporten. Das Spiel kommt ja auch nicht für die PS3 und Xbox360 raus... Immer dieses rumgeheule, wenn Ihr neue Spiele spielen wollt, dann müsst ihr auch Hardware kaufen, die das kann. Wem dieser Umstand stört, der kann sich ja eine Konsole kaufen und muss sich darüber dann auch keine Sorgen machen.

Und gerade bei den Prozessoren geht ja meistens noch so einiges ^^ Ein fast 4 Jahre alter i5 ist in spielen auch nicht wesentlich langsammer, als andere CPUs. So wie es aussieht, hat man sich bei den Anforderungen ehr an geläufige Modelle gehalten. Man schreibt z.B. i5 2500K, weil jeder die Kiste kennt und schreibt nicht einen i5 2380P den kaum einer kennt. Alleine das man die K Version angibt, sollte etwas stutzig machen, denn bis auf den freien Multiplikator gibts keinen unterschied zum 2500... man vermaktet auch lieber die GTX770, als die deutlich weniger verkaufte, aber baugleiche 680.

So ein Shitstorm über Systemanforderungen sind eh schwachsinnig, wartet doch mal ein paar benchmarks ab, dann sieht man es wenigstens genau, denn allzu oft werden in den offiziellen Anforderungen ziemliche schwachsinns Kombinationen geschrieben.

Als die ganzen Meckerheinis... schraubt die Grafik runter, oder kauft euch einen Spiele PC, der den namen auch verdien und mit Hardware bestückt ist, die zum spielen neuester Spiele geeignet ist! Man kann Fortschritt nicht bremsen, nur weil einige nit mitkommen und wem so ein Spielerechner zu teuer ist, kann immernoch auf eine Konsole umsteigen und hat kein grund mehr zu meckern. Im Jahr 2015 wird man wohl Hardware aus den jahren 20011-2013 voraussetzen können.
 
Weis auch ned was alle haben. Das sind halt die Empfohlenen Einstellungen... nicht die minimalen. Is doch ok so. Oder kratzt das jedem am EGO wenn sein Rechner plötzlich ins schwitzen kommt und keine 3 mrd Frames per Sekunde mehr schafft?
 
Typisch Gamer-Kultur.

Kann man auch aktuelle Rechner ausreizen wird gemeckert, läuft das Spiel auf 2 Jahre alten Rechnern wird gemeckert weil man Potential verschenkt hat.

Wird man aber ganz offensichtlich Betrogen wie bei DLCs die eigentlich Bestandteil des Spiels waren, Pay-to-Win, Online-Zwang, etc. dann wird bedenkenlos gekauft. Es ist halt heutzutage so.
 
@MountWalker

Danke für die Erklärung bezüglich Übelkeit, ja das Phänomen ist mir durchaus bekannt nur wie du selbst sagst nur bei einer sehr sehr kleinen Minderheit tritt es auf und der ursprüngliche Poster hat es mehr so hingestellt als ob 60 Fps bei relativ vielen Menschen Übelkeit verursachen würden und das ist nunmal Käse, wie du mir denk ich mal sicher zustimmen würdest. Wäre dem so, so würde man ja speziell bei Shootern ein erhöhtes Risiko für Übelkeit haben und darüber häufiger mal lesen, denn diese rennen eigentlich immer mit 60+ FPS wenn möglich und dank der schnellen Bewegungen wären die prädestiniert für erhöhtes Übelkeits Risiko.

Oder kratzt das jedem am EGO wenn sein Rechner plötzlich ins schwitzen kommt und keine 3 mrd Frames per Sekunde mehr schafft?

So kommts mir irgendwie vor ^^.

Wird man aber ganz offensichtlich Betrogen wie bei DLCs die eigentlich Bestandteil des Spiels waren, Pay-to-Win, Online-Zwang, etc. dann wird bedenkenlos gekauft. Es ist halt heutzutage so.

Dem kann ich nur voll und ganz zustimmen ! Und genau in den Punkten macht CDPR eigentlich alles richtig :) keine kostenpflichtigen DLCs (wie in Teil 1 und 2 auch schon !) sondern wenn, nur neuer Content mit Patches der allen kostenlos zur Verfügung gestellt wird, somit auch kein Pay-to-win (bei Singleplayer Games eh weniger relevant, aber gibt ja trotzdem Micro Transactions ala Dead Space 3 die das Gegenteil beweisen :/) und soweit mir bekannt auch keinerlei Online Zwang, nichtmal eine Bindung an Steam ist nötig, wenn auch möglich ! Und über GOG kann man das Spiel sogar DRM frei erhalten und die Leute nörgeln trotzdem noch über irgendwas ...

@Herdware

Prinzipiell stimme ich dir zu dass man ein Spiel auch auf schwächeren Rechnern lauffähig halten sollte, aber ganz ehrlich, wer hat denn in einem aktuellen Gamingrechner keinen Quadcore verbaut ? Und selbst wenn es nur ein alter Q6600 ist, dann dreht man halt den Takt etwas nach oben und das ganze sollte auch gehen. Und irgendwo ist halt auch mal schluss mit der Abwärtskompabilität, man hätte statt dem 2500k vielleicht einen Q9450 oder so angeben sollen aber im Grunde wird es vermutlich mit beiden laufen wenn man den Q9450 etwas OCed.
 
Zuletzt bearbeitet:
Naja, die Leute, die sich jetzt aufregen, dürften sich bei AC Unity sehr wohl fühlen - braucht mindestens ne GTX 780, um überhaupt in FullHD mal die 30 FPS zu halten, AMD-Hardware wird bei der Entwicklung sowieso nicht berücksichtigt und der Performance-Unterschied zwischen minimalen und maximalen Details liegt bei gleicher Auflösung bei maximal 20%.
 
Einfach mal auf Facebook nachgefragt, ob das den wirklich so ist - hier die Antwort:

Wir sind mit der Optimierung noch nicht fertig und bei den ganzen Übersetzungen geht gerne mal was verloren - in den Interviews. Allerdings ist das Spiel natürlich sehr rechenintensiv und wir können/wollen keine Framezahl versprechen wenn diese dann am Ende - aus welchen Gründen auch immer, jeder Rechner ist anders - nicht erreicht wird. Es gibt keinen Cap oder so. Schneller Rechner mit schneller Karte und viel RAM: Mehr Frames. Wie viele genau: vorher so gut wie nie zu sagen.

Viele Grüße
Dein Witcher-Team
 
R1c3 schrieb:
Danke für die Erklärung bezüglich Übelkeit, ja das Phänomen ist mir durchaus bekannt nur wie du selbst sagst nur bei einer sehr sehr kleinen Minderheit tritt es auf und der ursprüngliche Poster hat es mehr so hingestellt als ob 60 Fps bei relativ vielen Menschen Übelkeit verursachen würden und das ist nunmal Käse, wie du mir denk ich mal sicher zustimmen würdest. Wäre dem so, so würde man ja speziell bei Shootern ein erhöhtes Risiko für Übelkeit haben und darüber häufiger mal lesen, denn diese rennen eigentlich immer mit 60+ FPS wenn möglich und dank der schnellen Bewegungen wären die prädestiniert für erhöhtes Übelkeits Risiko.

Man sollte bei der Übelkeitsdiskussion auch nicht den Einfluss des FoV (field of view) außer acht lassen. Ich kann zum Beispiel alles spielen, egal wie schnell, egal ob kopfüber oder kopfunter (z.B. Prey :) ), Achterbahnfahren und Segelfliegen... alles scheißegal... aber man setze mich vor ein PC-Spiel mit einem zu niedrigen FoV (meist bei schlechten Konsolenports der Fall) und die Chancen stehen ganz gut, dass mir innerhalb kurzer Zeit kotzschlecht wird. Und da bin ich bei weitem nicht der einzige.
Es kommt zum Glück sehr selten vor und mittlerweile ist ja zum Glück auch FoV bei den meisten Spielen einstellbar, aber HL2 damals war zum Beispiel extrem (Standard FoV war glaube ich 65). Boah war mir da schlecht und das teils schon nach 5 - 10 Minuten.
In jüngerer Vergangenheit ist das eigentlich nur bei zwei Games aufgetreten: Tomb Raider (2013) und Call of Juarez Bound in Blood. Ging aber noch... musste nur so ca. jede Stunde oder zwei mal eine kleine Pause machen.
Dass einem aber rein von low fps schlecht wird, kann ich mir auch nicht so recht vorstellen, es sei denn es handelt sich um eine Person, die generell keinerlei "Übung" im Umgang mit 3D Spielen hat oder der generell bei sowas schwummrig wird.
 
Ja das stimmt :D niedriger FOV Wert mancher Ports ist echt unschön, hat man einen regelrechten Tunnelblick drauf, auch wenn mir davon nicht schlecht wird, so nervt es trotzdem.
 
Zuletzt bearbeitet:
VikingGe schrieb:
Naja, die Leute, die sich jetzt aufregen, dürften sich bei AC Unity sehr wohl fühlen - braucht mindestens ne GTX 780, um überhaupt in FullHD mal die 30 FPS zu halten, AMD-Hardware wird bei der Entwicklung sowieso nicht berücksichtigt und der Performance-Unterschied zwischen minimalen und maximalen Details liegt bei gleicher Auflösung bei maximal 20%.

Ja, weil das Spiel so selten schlecht optimiert ist nicht weil es gut aussieht!
 
Naja also AC Unity schaut jetzt nicht gerade hässlich aus, mag sein dass man noch was optimieren könnte, aber hübsch isses allemal.
 
Erinnert mich an die damaligen Ankündigungen von Unreal, also dem ersten Unreal. Die Hardwareanforderungen waren damals so absurd hoch das keiner auch nur im entferntesten an einen Erfolg geglaubt hat.
 
@ Tulol

Ja, und ich glaub das war tatsächlich der Grund, warum das Spiel erfolgreich war. Ich bin für Unreal und Half-Life von einem Cyrix 6x86MX PR200 (der die Mindestanforderungen beider Spiele gerade so erfüllte) auf einen K6-2 350 umgestiegen - da waren beide Spiele schon eine Weile auf dem Markt. Einigen Spielern scheint die Freude an Spielen, die nicht erst einen Tag alt sind, abhanden gekommen zu sein.
 
Man kann auch mit der best optimiertesten Engine jegliche Hardware in die Knie zwingen. Das ist auch nicht schwer: einfach einen höheren Detailgrad und schon kommt die Hardware nicht mehr mit.

Und ja: geheult wird immer. Entweder ist das Spiel zu hardwarehungrig oder die Grafik zu altbacken. Seit wann geht es denn um das Spielgefühl? Hauptsache die Grafik passt und es läuft bei mir, während es bei allen Anderen ruckelt.
 
B_Montana schrieb:
Nur werden wieder andererseits alle rumschreien das the witcher 3 nicht auf ihren 500€ Aldi PCs in FULL HD und max. Details läuft und somit "schlecht" für den PC optimiert ist...

Wenn es derartig wenig FPS erreicht, IST es auch einfach nur schlecht optimiert... guck dir Crysis 1 mit Grafikmods an, das sieht besser aus UND hat in etwa 80fps mit einer 770
 
e_Lap schrieb:
Langsam erreichen die Systemanforderungen Maße nach denen alle immer gerufen habe. Kann ja im Grunde nur gut für die Hardwareindustrie sein.


Nur dass das Spiel nicht so gut aussieht und einen großen Downgrad erfahren hat. Das ist so wie wenn man sagt MS Solitär läuft mit 30 FPS auf Tripple Sli Titan X.."ihr wolltet doch hohe Anforderungen!"

Ja, aber nur wenn das Game auch dementsprechend aussieht!!! Crysis 1 (2007) mit MOds ist immer mit Abstand nr 1 in Sachen Grafik ;) Das Game ist bald 8 Jahre alt
Ergänzung ()

R1c3 schrieb:
@Morrich

Man muss doch nur mal Crysis 1 anschauen, das lief damals sogar auf Sli Gespannen stellenweise nicht ganz flüssig auf maximalen Details und wen hats gejuckt ? Hat man eben die Details etwas runtergeschraubt und immernoch eine hammer Grafik gehabt.

Man kann es doch auch positiv sehen, das Spiel wird dann vermutlich in 1-2 Jahren noch immer spitze ausschauen und dann kann man es auch auf Midrange Karten mit max. Details zocken.

Crysis 1 sah aber auch ein bisschen besser aus als andere Spiele damals, findest du nicht?
 
Zuletzt bearbeitet:
Crysis 1 sah aber auch ein bisschen besser aus als andere Spiele damals, findest du nicht?

Korrekt, und wenn ich mir die Screenshots von TW 3 anschaue dann wird das auch der Fall sein, zumal Crysis nicht Open World war, was zusätzlich nochmal mehr Resourcen benötigt. Und TW3 hat KEINEN Downgrade erfahren, das wurde jetzt schon oft genug von den Entwicklern selbst bestätigt und ich hab auch noch von keiner seriösen Quelle gelesen dass das der Fall ist, also streu hier keine falschen Gerüchte.
 
Crysis1 sieht nur und ausschließlich in Sachen Texturqualität hervorragend aus - ausgerechnet die Füllrate ist aber bei den Grafikchips in den letzten 7/8 Jahren nur schleichend gestiegen. Bei Crysis sieht man auch weniger, als man denkt. Wenn ich in GTA4 das Pendant zur 5th Avenue runterblicke seh ich vielleicht zehn oder zwanzig mal so viele Objekte, wie bei einem Blick in Crysis.
 
Crysis 1 hatte aber auch sowas wie Grafikeinstellungen und ist nebenbei alles andere als ein Performance-Wunder - die Hardware, die man braucht, um auch ohne Mods die 60 FPS zu halten, kommt dank Single Core-Limitierung wohl eher aus dem Jahre 2013 als von 2007.
(Trotzdem sieht es imho besser aus als jedes andere Spiel vor 2011, das nur so am Rande).

Dragon Age sieht auf Ultra auch gut aus, läuft damit auf den Recommended Specs garantiert nicht mit 30 FPS (sondern deutlich darunter!) - aber es läuft auf Niedrig und reduzierter Auflösung auf jedem Toaster. Unity nicht. Das ist das Problem.

Wenn der Witcher wenigstens halbwegs mit der Hardware skalieren kann, also das Reduzieren von Details auch tatsächlich Leistung bringt, sehe ich irgendwie das Problem nicht - auf aktueller High End-Hardware kann es dann eben entsprechend besser aussehen bei entsprechenden Frameraten.
 
Zuletzt bearbeitet:
crysis wurde durch killzone 4 abgelöst, crysis 3 ist nicht mehr die grafikvorzeigebombe. das ist jetzt killzone, achja und metro ll
dass immer noch crysis erwähnt wird wenn es um die beste grafik geht. komisch, manche sind irgendwie in der vergangenheit stecken geblieben
 
Zurück
Oben