• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Cyberpunk 2077: CD Projekt verkündet niedrige System­anforderungen

Das sind mal genügsame Anforderungen, bin gespannt wie das Game wird.
Das die Anforderungen auf den PC aber so komot sind überrascht sehr.
Gut dann läuft das bei mir auf beiden Rechnern, hätte vermutet das ich das knicken kann bzw. stark an der Qualitätsschraube drehen muss.
Freu mich auf CP
 
Schade, dass nicht genauer spezifiziert wird, für welche Einstellungen diese Settings sind. Wenn man mit Watch Dogs Legion vergleicht, wäre man da bei minimum = 1080pLow bzw. empfohlen = 1080pHigh. Also wäre da viel Luft nach oben.

Die Grafik sieht auf jeden Fall Bombe aus und wenn man hier mit 1440p+ und RT spielen möchte, werden die Anforderungen steil nach oben gehen. Ich hoffe die 3080 schafft das :°) Meine 2080ti@2145 hatte in Witcher 3 zwischen 45-56FPS nicht mal auf den höchsten Settings (Mit Mods natürlich) und das sah wirklich verdammt gut aus. Ich hoffe, dass dieses Niveau gehalten bzw. getoppt werden kann.
 
CrunchTheNumber schrieb:
Ich finde die Entscheidung richtig, ein Spiel für die "Masse" an Hardware zu optimieren.
Oh absolut, alles andere wäre ja auch etwas seltsam. :D Zumal ich davon ausgehe das irgendwann entweder ein offizieller oder ein inoffizieller "HD-Patch" kommt. So wie bei diversen anderen Spielen.
 
Bin selbst auch nur mit 1080p am Start, dafür aber auf 3 Bildschirmen, bei Witcher 3 reicht es mit der 2080 nicht ganz für alle Regler auf Ultra, aber ich hoffe doch, dass DLSS das Ganze kompensieren kann, denn die Immersion in Rollenspielen und Rennsimulationen will ich nicht mehr missen.
 
CptCupCake schrieb:
Nach meinem WQHD 144 Hz Monitor wird es definitiv ein 4k 120/144 Hz Monitor werden und dann möchte ich möglichst alles auch in 120/144 FPS sehen.

1080p und 60 Hz ist von vorgestern. Die Welt hat sich ganz oft seitdem weiter gedreht.
Oh ja, immerhin ganze 13% spielen tatsächlich in WQHD und höher. Blöd für die restlichen 87%, die sind eben von vorgestern. Gott sei dank hast du, als Nabel der Welt, uns nun aufgeklärt.
 
  • Gefällt mir
Reaktionen: Element93, .Ake, Mracpad und eine weitere Person
- Faxe - schrieb:
hab mir zuletzt erst einen nagelneuen 1080 Monitor gekauft
Ich kann das persönlich nicht nachvollziehen wie an im Jahr 2020 einen neuen Monitor mit Full HD kaufen kann, aber jeden das seine :)
 
  • Gefällt mir
Reaktionen: Silencium und Zubz3ro
Pisaro schrieb:
Ich kann das persönlich nicht nachvollziehen wie an im Jahr 2020 einen neuen Monitor mit Full HD kaufen kann, aber jeden das seine :)

Persönliche Präferenz? Mehr brauch man als Grund nicht 😉 Hat sogar nur 24"... Was bin ich doch rückständig. Was soll ich ausserdem mit einem QHD/2K oder 4K Panel wenn ich die Auflösung sowieso nicht flüssig gestemmt bekomme und außer ein paar Mails sonst nichts an dem Kasten mache?

Anders gefragt, wieso sollte ich mir einen Monitor kaufen der eine höhere Auflösung hat? Rein rationell, ohne "bessere Optik in Games"-Blabla.

Wenn ich jetzt noch sage das sogar meine Grafikkarte nur vier Wochen alt ist platzt so manchem bestimmt der Schädel 😆
 
  • Gefällt mir
Reaktionen: .Ake und Pisaro
Jeder wie er mag.FullHD Gaming ist definitiv viel billiger.Ich habe auch mein ganzes Leben in FullHD gezockt und habe mir vor ein paar Tagen einen 27 Zoll WQHD Minitor gekauft.

Dazu wird bald ne neue Karte fällig.Teurer Spaß
 
  • Gefällt mir
Reaktionen: mylight
Benni82 schrieb:
Jeder wie er mag.FullHD Gaming ist definitiv viel billiger.Ich habe auch mein ganzes Leben in FullHD gezockt und habe mir vor ein paar Tagen einen 27 Zoll WQHD Minitor gekauft.

Dazu wird bald ne neue Karte fällig.Teurer Spaß
32Zoll QHD ist schon viel besser als 24 FHD, da merkt man erstmal was man die ganzen letzten Jahre verpasst hat, die Lust nicht soviel zu Zocken kam daher, weil es einfach kein Spass mehr machte. Jetzt flammt die Spielesucht erneut auf, 32Zoll 4K ist noch geiler, nur leider fehlt mir die 3080 Grafikkarte dafür noch.
1300€ kostet mich der Spass. Es lohnt sich aber ! die nächsten 3-4 Jahre wieder richtig Spass am zocken, geil...
 
  • Gefällt mir
Reaktionen: Benni82
Da lobe ich mir mal Ubisoft, dass sie die specs schon einige Zeit mit Auflösung und fps angeben. Sollten alle Hersteller übernehmen.
 
Dann könnte ich das sogar mit meinem Toaster hier spielen. Werd sicher mal einen Blick rein werfen.

DerKonfigurator schrieb:
Ego Shooter mit 30FPS ist wie ne Pizza ohne Käse.
Passt doch. Ist eh nicht essbar mit Käse. ;)
 
  • Gefällt mir
Reaktionen: .Ake
Vitec schrieb:
Da lobe ich mir mal Ubisoft, dass sie die specs schon einige Zeit mit Auflösung und fps angeben. Sollten alle Hersteller übernehmen.
Habe mir den 3ten Stream zu Cyberpunk auf Gamesstar angeschaut und die haben direkten Telefonischen Kontakt (Whtasapp Sprachnachricht) zu einem Cyberpunk DEVs, es klang raus das das die Specs für PS4 Qualitat allerdings in 60 FPS also 1080p/Hoch mit 60FPS. An Sehr Hoch/Ultra und RT Einstellungen wollen sie jetzt nachdem Launch der neuem Grafikkarten rumprobieren und finale 1440p/4K & RT Specs vor dem 19.11. bekannt geben. Ultra/4k/max RT wird trotz DLSS2 auf der RTX 3080 keine 60FPS haben und das wird sicher nicht am Speicher liegen.
 
  • Gefällt mir
Reaktionen: Viper2000
Vitali.Metzger schrieb:
Sollte bei mir in WQHD@Hoch mit meiner 1070 mit 50-60 FPS laufen.
Ich glaub jetzt nicht gerade an 60FPS aber empfholen heisst für mich angenehm genug damit es spielbar ist.
Das erreiche ich mit meiner GTX1080 auch.

Viel mehr sagt mir aber empfohlen, dass es RTX wirklich nur noch für ein Tüpfelchen oben drauf braucht und das freut mich sehr.
Dies sollte jetzt einige die sich im Zugzwang fühlten beruigen.
Ergänzung ()

Für die es nicht aushalten könne, dass jetzt jeder Cyberpunk spielen kann, ein kleiner Hinweis.

Man kann mit Software jede Hardware klein kriegen.
Es gibt sicher auch für diejenigen noch einige Settings um das Teil ab zu würden und ein Can it run Cyberpunk2077 draus zu machen.
 
Pisaro schrieb:
Ich kann das persönlich nicht nachvollziehen wie an im Jahr 2020 einen neuen Monitor mit Full HD kaufen kann, aber jeden das seine :)

1. FHD unterstützt nahezu jedes Spiel

2. Die Perfomance unter FHD ist so gut wie immer die bessere

3. FHD frisst bei weitem weniger Geld, Geld und nochmals Geld. Der gesamte PC frisst insgesamt weniger Strom, kostet weniger in der Anschaffung und hat deutlich weniger Folgekosten. Ein PC @ nativem FHD lässt sich im dreistelligen FPS unter 100 Watt bis ca. maximal 200 Watt bewegen.

4. Desktop. Schon einen 4K-Monitor gefunden der unter 15 Watt oder 10 Watt betrieben werden kann? Ich frage mich: Wie bewege ich einen 4K-Monitor unter 15 Watt? Ausschalten?

5. Schon einen 4K-Monitor gefunden der perfekt ausgeleuchtet ist, eine gute Farbwiedergabe hat und seine 160Hz ohne wenn und aber verrichtet? Von OLED brauchen wir gar nicht erst reden. Da werden noch einige Tage vergehen bis da auch nur ansatzweise etwas vergleichbares vorhanden sein wird. Wenn das überhaupt jemals möglich sein wird ohne Qualitätsverlust.

6. Nicht jeder sitzt 2 bis 4 Meter vor dem Monitor während er mit Maus und Tastatur zockt. Und bevorzugt daher ggf. doch ein immersives Ingame-Erlebnis direkt vor dem Monitor/den Monitoren.

Genauso werden sich sicherlich einige User fragen wie man sich 2020 eine 3080 mit 10GB VRAM für "nur 700€ bis knapp 1000€" kaufen kann. Erst die Ankündigung seitens nVIDIA (anfixen), dann der Releasetag bei dem alle Karten in wenigen Minuten ausverkauft sind (Paperlaunch?). Als nächstes dann Begehrlichkeiten verstärken durch: Alaaaarm! Die Miner werden uns alle neuen nVIDIA Karten unter dem Arsch weg kaufen. Jetzt stehen bestimmte Leute mit Verlustangst Schlange um wie damals im Osten seltene Südfrüchte zu erhalten.
Fazit: Kennen wir schon. So ist das eben wenn man Enthusiast im PC Master Race sein will. Da muss das Geld eben locker sitzen. Auf die ein oder andere Weise. Allerdings fühle ich mich bei der 3080 10GB ein wenig an die 970 erinnert. Nicht ganz so extrem. Aber ähnlich. In etwa wie wenn die Hersteller zum Release einer 1060 nur die 3GB-Variante raus gehauen hätten um dann später eine 1060 6GB zu bringen. Wirklich kein User der damals ein paar Minuten über seine Ansprüche Details @ FHD zukünftig hoch zu setzen nach gedacht hat, hat ernsthaft je eine 1060 3GB in Erwägung gezogen um letzten Endes vielleicht 50€ zu sparen. Außer es hapert wirklich am Geld. Aber dann spare ich lieber 1-3 Monate länger als mir eine künstlich beschnittene Variante anzutun. Wenn die auf Kante genähte 3080 mit mehr als 10GB raus kommt will ich nicht wissen was nVIDIA dafür verlangen wird. Ich glaube kaum nur 50€ mehr. Jeder der auf den Release seitens AMD wartet tut gut daran. Und jeder der damals bei Pascal zugeschlagen hat kann sich glücklich schätzen wenn ihm heute noch die Performance ausreicht. Von der vorigen Generation ganz zu schweigen. Und von den 1060/1660-Usern @ FHD gibt es doch eine ganze Ecke. Und nein: Nicht jeder muss den Regler nach rechts, außerhalb des Bildschirms bewegen damit man den zigsten Effekt ingame vorfindet um dann später doch wieder an einer unglücklichen Geometrie innerhalb des Spiels anzuecken. Wenn es sein muss kann ich für geile Grafik den PC auch einfach mal aus lassen und raus gehen ;)

Pleasedontkill schrieb:
Für die es nicht aushalten könne, dass jetzt jeder Cyberpunk spielen kann, ein kleiner Hinweis.
Man kann mit Software jede Hardware klein kriegen.
Es gibt sicher auch für diejenigen noch einige Settings um das Teil ab zu würden und ein Can it run Cyberpunk2077 draus zu machen.

Wer das ernsthaft in Frage stellt hat sich nicht nur von irgendwelchem Marketing einlullen lassen sondern auch die letzten Jahre gepennt (bzw. sich wenig bis nicht interessiert). In Zugzwang werden also eher jene User sein bei denen die Hardware seit Monaten ohnehin schon aus dem letzten Loch pfeift. Da ist es verständlich dass man vielleicht auf die neue Generation Hardware warten möchte. Warten ist da mMn. ein gutes Stichwort. Wenn man nicht ohnehin schon zu lange gewartet hat.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pleasedontkill und Der Zeitgeist
niedrige Anforderungen dafür das angeblich Raytracing, die Effekte diesbezüglich werden wohl recht minimalistisch ausfallen.
Ich glaube das wird sich innerhalb der nächsten sechs Monate auch nicht ändern.
Kann ich mit Upgrade der Grafikkarte noch warten und erst mal meinen 1700x in Rente schicken.
 
Pixelkiller schrieb:
niedrige Anforderungen dafür das angeblich Raytracing, die Effekte diesbezüglich werden wohl recht minimalistisch ausfallen.
Anhand der empfohlenen Karten siehst du doch schon, dass das empfohlene Setting kein Raytracing beinhaltet
 
Deswegen schrieb ich ja auch „angeblich Raytracing“, viel zu viel Hype um das Game
 
Das Spiel hat für mich den "Prototype" Flair.
Sieht geil aus, braucht dann ne halbe Ewigkeit bis es raus kommt und ist schlussendlich nur ganz ok da es den Ansprüchen nicht gerecht wird.

Ich hoffe ich irre mich.
 
.....das Spiel wird MIT Raytracing jede 3080 und 3090 an die Grenze des Machbaren bringen. In Städten unter 60 FPS in 4k. Es sei denn, man ändert das Preset auf "Hoch".
Guckt euch doch den Witcher an. 2015....auf xbox One und ps4. Und trotzdem brau :daumen: cht man für UHD und 60 FPS eine 1080ti bzw. 2080S. Kann jeder selber rechnen.....
 
Zurück
Oben