• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News The Witcher 3: Systemanforderungen nur für 30 FPS

4k, 4x SSAA?
dann kann ich mit 30 fps auf einer 290 leben
 
ein Spiel was zu 100% im SLI skaliert? schön wäre es..
 
digitalangel18 schrieb:
... Pentium II 300MHz 2500DM anyone? ...
Ich hatte in meinen Rechner mit K6-2 350 und 128 MiB RAM und 3Dfx Voodoo Banshee glaub ich für unter 1000 DM zusammengestellt - aber für Ultima IX war der auch viel zu lahm, aber Diablo2 war knuffig
 
für mich ist dieser ganze kram einfach nur dumm, beispiel sind die konsolen ps3 - xbox360 ! die "mussten" jahrelang mit der gleichen hardware laufen und neue aktuelle titel mit immer mehr feature und grafikprachten klar kommen. anders im pc markt. dort kommen alle jahreszeiten ne neue generation cpu´s oder eben grafikkarten raus und werden nicht mal komplett genutzt. viele generationen wurden einfach links liegen gelassen um immer die aktuelle hardware zu jagen/auszureizen, egal ob dies bei passender programmierung auch die vorvorgänger hardware getan hätte. warum spiele optmimieren wenn neu hardware dies nicht braucht, scheiß auf die alte karte von vor 6 monaten. ich hoffe ihr wisst was ich meine. das ist alles nur nur kommerz und von spielehersteller und hardware herstellern. die schieben sich gegenseitig die gelder zu . das ist eben marketing alla 2015. da wird bewusst "nur" auf aktueller hardware getestet aka programmiert um die wirtschaft anzukurbeln richtung pc markt. daher doch auch die spiele codes und bundle pakete.
 
Zuletzt bearbeitet:
digitalangel18 schrieb:
Dafür wurde aber wenigstens die Hardware ausgenutzt. Es wird ja sicher Grafikoptionen geben die man runter schrauben kann ;)
Ausgenutzt ist relativ. Dying Light ist aktuell das neueste Beispiel. Es lastet meist einen Kern bis zum Anschlag aus und hat deswegen hohe Anforderungen an die CPU. Auf maximalen Einstellungen sind 60FPS auch auf der besten Hardware nicht zu halten.
 
Na super. Mein Rechner schafft das zwar, aber auf 30 FPS hab ich kein Bock.
Abgesehen von den etwaigen Framedrops wenn die Welt nachgeladen wird. Und die soll in W 3 ja nicht gerade klein sein.
Man wird sehen.
 
Na die Anforderungen sind doch mal eine Ansage :D aber ehrlich gesagt finde ich das völlig ok, das Spiel wird bombastisch ausschauen wenn man sich die bereits verfügbaren Screenshots + Videos anschaut und dann sind hohe Anforderungen auch völlig gerechtfertigt, wozu hat man denn einen Highend PC wenn man ihn nicht ausreizt.

Und wenn man eben schwächere Hardware nutzt muss man die Details eben etwas runterschrauben, The Witcher 2 bot ja bereits einiges an Grafikoptionen damit es auch auf schwächeren PCs anständig lief, glaube kaum dass es beim 3er anders sein wird.

solange die spiele auf basis der next gen konsolen programmiert werden kann es nur müll für den pc sein.
kaufst da einen 4k fernseher und spielst auf 720p o.ä fürn performance pc ist die bildqualität (texturen etc.) hässlich und matschig.

Eher Müll den du hier von dir gibst ... als ob 4k auch nur Ansatzweise schon verbreitet wäre, egal ob als Fernseher oder Monitor und wenn man sich die Screens von The Witcher 3 anschaut ist da absolut NICHTS hässlich oder matschig und das wird ja auch für Konsole entwickelt. Es kommt halt einfach darauf an ob der Entwickler das Spiel einfach nur simpel portiert oder die PC Version nicht stiefmütterlich behandelt und ihr bessere Texturen/Grafikfeatures spendiert und bei The Witcher 3 wird das wohl der Fall sein so wie das bisher anklang.

Ausgenutzt ist relativ.

Stimmt schon, aber wenn man The Witcher 2 als Grundlage nimmt, das hat auch schon 4 Kerne effektiv nutzen können und wenn ich mich gerade nicht irre basiert das 3er auf einer aufgemotzten Engine des 2ers dann wird dieses auch auf jeden Fall mindestens 4 Kerne nutzen können, der Hinweis auf den AMD FX mit 8 Threads deutet eher auf die Nutzung von mehr Kernen hin, was auch logisch wäre wenn man überlegt dass die Konsolen auch sehr stark auf Multithreading setzen und nicht Singlecore Leistung.
 
Zuletzt bearbeitet:
Permadeath klingt suuuuper interessant. :)
Ich mag HC, soweit es geht und gut umgesetzt ist, sehr gerne.

Zur Grafik; habe bei 4players.de das letzte Video gesehen und es sieht eher aus wie ein poliertes Witcher 2 - mehr nicht. Aber mehr habe ich allerdings auch nicht erwartet. Hype ist eben das beste mittel um zu Teasern und Verkäufe anzukurbeln. ;)
 
Smagjus schrieb:
... Dying Light [...] lastet meist einen Kern bis zum Anschlag aus und hat deswegen hohe Anforderungen an die CPU. ...
Wobei man da auch anprangern sollte, dass die Studios da in den nominalen Anforderungen ruhig differenzierter sein könnten. Auf einem 6350 läuft das Spiel vermutlich genauso flott, wie auf einem 8350, weil das eine Modul mehr wahrscheinlich sowieso die ganze Zeit am idlen wäre. Aber wenn man was von 8350 schreibt, gehen wieder 90% davon aus, dass nur der dickste Prozessor von AMD zum Zocken tauge.
 
das glaube ich nicht - da muss das game schon echt verdammt gut aussehen, damit eine r9 290 schon in fHD an seine Grenzen kommt.
30fps..so'n quatsch
 
Naja gab es nicht mal irgendso eine Liste die zeigt das wenn die Kerne einer CPU unter 2,5 oder 2,0Ghz wandern die R290X dann kaum noch gegen eine GTX750 ankommt?
 
Abwarten und auf Benchmarks der Final warten. Vor Release gibts immer viel sinnloses PR-Blabla. Man muss auch bedenken, dass High vs Ultra oft nahezu keinen optischen Unterschied macht, aber dafür die hälfte der FPS frisst.
 
Hm..ich verstehe nicht was solche Angaben sollen. Wieso versuchen die Entwickler Studios nicht die 60fps anzupeilen?! Dann sollen sie halt mal mehr Ressourcen in saubere performante Programmierung stecken.. Kann doch nicht wahr sein...

W3 ist ein Action RPG. Welches bestimmt nicht auf 30fps gezockt werden will.. Und jetzt kommt mir nicht mit super Grafik...klar die wird (hoffe ich) schick.. Aber ehrlich, wir sind in 2015 und nicht 2004...

Gut heißen kann man die Entwicklung dee letzten 1-1,5 Jahre auf keinen Fall.
 
Meine 970 und mein Bestellter ASUS ROG Swift freuen sich schon *.*
 
Tristamax schrieb:
Läuft
ne 290 packt nur 30 FPS

Diese völlig überholte Grafikkarte ist ja auch schon immerhin ein Jahr alt :lol:

Schon komisch, dass ein Rechner nicht mehr als 30fps kann, obwohl er
von den Spezifikationen her der PS4 um sicherlich das doppelte überlegen
ist. Früher hätte ich mir das Argument gerne gefallen lassen, weil die Konsolen
ja keine x86er CPUs hatten, aber heute zieht das nicht mehr so mega deftig.

Z.B. The Evil Within und alle Command and Conquer Spiele haben auch ein 30fps
cap und die liefen trotzdem gut spielbar ab, Quake 3 lief aber mit 90fps noch
einen ticken besser als 60 wenn man promode gespielt hat, aber ein egoshooter
ist ja immer anders als RTS oder A-RPG. Vielleicht müsste man mal die fertige Version
spielen bevor man über das 30er Limit jammert. Es wird ja bekanntlich selten
so heiß gegessen wie gekocht. Vielleicht wirds auch einen 60fps Modus geben,
allerdings nur für die 970 oder 980 und aktuelle i7.

Wäre mal interessant zu wissen, ob der Prozzi oder die Graka hier limitiert.
 
Ich gehe von 1080p aus im Zusammenhang von 30 FPS. Tja reicht wohl nicht für 1440p und das was ich gesehen habe ist nicht viel besser (wenn überhaupt) als Dragon Age: Inquisition. Wirds halt aufn Grabbeltisch gekauft.
 
Interessant wäre zu wissen welche GTX 770 sie meinen. die mit 2 oder 4 GB VRAM. Weil die 290(X) ja schon standardgemäß 4 GB hat. Zumal die 770 ja doch eher mit der R9 280X konkurriert.

XShocker22

borizb schrieb:
Wäre mal interessant zu wissen, ob der Prozzi oder die Graka hier limitiert.

Viel interessant würde ich wissen, wie hoch doe Multi-Core-Skalierung ist, denn wenn CD Projekt Red hier einen AMD FX 8350 und einen Intel Core i7 3770, würde ich erwarten, dass die Kerne vom AMD-Pendant auch genutzt werden, weil die Leistung bei Intel pro Takt deutlich höher ist. Seltsam ist aber auch, dass sie nicht gleich den AMD FX 9590 einbezogen haben.

XShocker22
 
Zuletzt bearbeitet:
Zurück
Oben