• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Systemanforderungen: Für For Honor reicht in Full HD ältere Hardware

Vindoriel schrieb:
Und warum hat D3 (bis auf dass man nur andere Leute in seiner Welt hat, wenn man mit denen in einer Gruppe ist) nahezu alle Elemente eines MMOs (z.B. Chat innerhalb eines Servers, für manche Ziele Gruppe nötig, Clans, Freundesliste mit Einladen ins eigene Spiel...)?

Diese Elemente machen Diablo zu einem stinknormalen Multiplayerspiel. Was fehlt ist die gleichzeitige Präsenz von mehreren hundert bis tausend Spieler in der tatsächlichen Spielwelt - dem Kernelement eines MMOs...
 
Bei AMD hat man ja 6 echte Kerne, die sich eben paar Dinge teilen müssen.

Nein, leider nicht.
Die Module bestehen aus zwei Integer und einer Gleitkomma-Einheit. Vollwertig wären sie nur, wenn je Integer eine Gleitkommaeinheit vorhanden wäre.

Der FX hat die gleichen Probleme wie die K6-2/ K6-3 CPUs mit 3DNow.
Wenn die Software nicht gezielt darauf angepasst ist, leiden die FX unter der niedrigen Gleitkomma-Leistung.
Quake 2 lief super, andere optimierte Titel waren den Intel ebenbürtig und nicht optimierte Spiele liefen auf Intels Vorgängermodell (Pentium 233MMX) besser.
Deja Vu -> AMD FX8350 ist so schnell wie ein Intel i5 2500.
Durch die neuen Konsolen wird die Unterstützung der FX-Architektur aber besser.

Das hat man bei Ryzen anscheinend verbessert.
 
Zuletzt bearbeitet:
das Spiel heisst so. Informieren bitte.

Ich finde das Spiel zu langweilig. Typisch Ubisoft, Steep dasselbe.
 
Bei Ubi ist es extrem davon abhängig, welches Team wirklich hinter der Entwicklung steckt. Far Cry 3 und 4 liefen auch auf verhältnismässig älteren Kisten noch sehr spielbar sofern man die Regler im Grafikmenü bedienen konnte (hab FC4 noch mit meiner gtx660 durchgespielt). Nur Watch Dogs oder Ass Ass in Greed sind unverhältnismässig hardwarehungrig, bzw. unspielbar. Dass bei der Masse an NPCs mehr CPU Power benötigt wird, ist klar, aber das Debakel von AC: Unity war ja wirklich hart an der Grenze zur allgemeinen Verarsche.

Ich glaube Ubi grundsätzlich schon, dass For Honor auf der genannten empfohlenen Hardware spielbar sein wird, allerdings bestimmt nicht in den höchsten Einstellungen und in jeder Spielsituation. Wenn wirklich viel auf dem Bildschirm los ist und die Armeen entsprechend aufeinander klatschen, dürfte ein i5 hier und da mal seine Probleme haben. Von daher nehme ich mal an, die genannten Systemspecs beziehen sich eher auf den Singleplayer und nicht auf den Multiplayerpart.
 
Erstaunlich, das Spiel scheint ziemlich gut optimiert zu sein und das obwohl es von Ubisoft stammt. Sehr löblich, da es auch sehr ansprechend, wie ich finde, aussieht. Es reicht also eine 6 Jahre alte Mittelklasse CPU und eine 5 Jahre alte Oberklasse GPu aus, um es in 1080p in guter optik zu zocken. Das schaffen nicht mehr viele Spiele heute.

Aber auffällig, das keine Fermi karten angegeben sind. Bei AMD ist die alte 6970 noch vertreten, eine gleichschnelle GTX 570 oder eine schnellere 580 nicht. Auch die 480 die etwa so schnell wie die 750ti ist wird nicht gelistet. Wahrscheinlich weil die karten einfach zu wenig Vram haben.

Wäre schön, wenn alle hersteller wieder mehr in die PC optimierung stecken würden. Zum einen können Besitzer älterer Rechner dann auch mehr neue Spiele in ansprechender Optik zocken, zum anderen zeigt es doch, wieviel potential da ist, wenn man neue Hardware so gut ausreizen würde. Aber auf ein gut optimiertes Spiel kommen wieder 50 miese Konsolenports, wo man mit hardwarepower die schlechte Softwareperformance ausgleicht
 
Shoryuken94 schrieb:
Erstaunlich, das Spiel scheint ziemlich gut optimiert zu sein und das obwohl es von Ubisoft stammt. Sehr löblich, da es auch sehr ansprechend, wie ich finde, aussieht. Es reicht also eine 6 Jahre alte Mittelklasse CPU und eine 5 Jahre alte Oberklasse GPu aus, um es in 1080p in guter optik zu zocken. Das schaffen nicht mehr viele Spiele heute.

Aber auffällig, das keine Fermi karten angegeben sind. Bei AMD ist die alte 6970 noch vertreten, eine gleichschnelle GTX 570 oder eine schnellere 580 nicht. Auch die 480 die etwa so schnell wie die 750ti ist wird nicht gelistet. Wahrscheinlich weil die karten einfach zu wenig Vram haben.

Wäre schön, wenn alle hersteller wieder mehr in die PC optimierung stecken würden. Zum einen können Besitzer älterer Rechner dann auch mehr neue Spiele in ansprechender Optik zocken, zum anderen zeigt es doch, wieviel potential da ist, wenn man neue Hardware so gut ausreizen würde. Aber auf ein gut optimiertes Spiel kommen wieder 50 miese Konsolenports, wo man mit hardwarepower die schlechte Softwareperformance ausgleicht

Ob das Spiel genügsam oder gut optimiert ist kann man nicht sagen. Ubisoft empfiehlt für Watch Dogs 2 auch einen i5 3470 und eine R9 290/GTX 780. Wie gesagt Empfohlen.

Ja, Watch Dogs 2 ist relativ gut optimiert, aber mit der genannten Hardware sind keine 60 FPS bei hohen oder sehr hohen Einstellungen drin. Alleine die Kombi R9 290 und i5 3470 sorgt wahrscheinlich dafür, dass man regelmäßig Einbrüche auf 40 FPS erlebt, da sich AMDs Overhead/DrawCall Problem in dem Game zeigt. Habs nämlich selbst mit einer HD7950 und einen i7 3770 getestet und selbst wenn ich auf Low Details in 1024x768 schalte, limitiert mit dem AMD Treiber die CPU extrem. Wie gesagt, ständig Einbrüche auf 40 FPS sind da die regel. High Details in 1080p läuft exakt genauso flüssig, wie die gerade genannten Settings..

Aber selbst die Kombi aus 3,2 GHz i5 und GTX 780 sollte nicht viel besser sein. Das Spiel ist nunmal CPU-lastig und ich hätte mit den empfohlenen Specs keine große Freude an dem Spiel.

Wie auch immer schaltet man auf maximale Details incl. erweiterter Sichtweite, dann limitiert selbst ein aktueller i7 auf unter 60 FPS. Ohne Erweiterte Sichtweite wird hingegen die Grafikkarte so stark gefordert, dass für 60 FPS in 1080p mindestens eine GTX 1080 notwendig ist.

Also trotz der geringen empfohlenen Hardware ist es mit maximalen Details eines der mit abstand forderndsten Titel, die je erschienen sind. Und selbst bei reduzierten Details dürfte der ein oder andere Probleme mit dem CPU-limit bekommen.

Fazit: Die Systemanforderungen sind nach wie vor unbrauchbar. Bisher wurde zu viel gefordert, mittlerweile wird zu wenig gefordert oder davon ausgegangen, dass man mit "hohen" Details spielt, obwohl danach noch "Sehr Hoch", "Ultra", "Ultra + Gameworks" und "Maxed Out" folgt. Im Endeffekt spielt man in Wahrheit also auf "medium-low" Es heißt jetzt nur "Hoch" und die fordernden Einstellungen werden alle extra bzw. abseits der Haupteintellungen gelistet. Damit sind die Leute halt scheinbar glücklicher, als wenn das Ultra Preset sofort alle Grafikeinstellungen automatisch aktiviert und maximiert.

Aber grundsätzlich ist das auch nicht verkehrt. "Maximale" Einstellungen sind eh relativ. Sowas gibt es praktisch nicht, da das nur irgendwelche Config Einträge und Werte sind, denen im Spielmenü ein Begriff zugeordnet ist. Solche Einstellungen kann man theoretisch bis ins unendliche treiben (zumindest die meisten Einstellungen) und der Vorteil wird bei exponenziell steigenden Anforderungen auch entsprechend geringer.
Letzten Endes ist das alles auch eine "Kopfsache", von der sich zu viele Leute verrückt machen lassen.
 
Zuletzt bearbeitet von einem Moderator:
Silmaril schrieb:
Von denen die das mitverfolgt haben (ging komplett an mir vorbei...) Was kann man eigentlich von For Honor erwarten? Vielversprechend oder lieblos wie Assassins Creed #37?

Das Spiel braucht immer eine Verbindung ins Internet, auch wenn man es Solo spielt!
Ergänzung ()

Vindoriel schrieb:
Eigentlich braucht man da schon nicht mehr Weiterlesen (Ubisoft ist das Kriterium) und wenn nicht dort, dann spätestens bei:
(Gilt auch für den Einzelspielermodus und im Gegensatz zu Diablo 3 ist das kein MMO)

Das sehe ich genauso. Vor allem ist das sogar bei Konsolen so. Womit das Spiel, genauso wie STEEP, für mich gestorben ist.

Bei Steep finde ich das besonders schade, ich hätte eigentlich gerne mal wieder ein aktuelles Snowboard Game, das letzte habe ich auf der 360 gezockt. Aber ein "Always Online" Spiel kaufe ich schon aus Prinzip nicht, selbst wenn man es auch alleine online spielen kann.
 
Captain Mumpitz schrieb:
Bei Ubi ist es extrem davon abhängig, welches Team wirklich hinter der Entwicklung steckt. Far Cry 3 und 4 liefen auch auf verhältnismässig älteren Kisten noch sehr spielbar sofern man die Regler im Grafikmenü bedienen konnte (hab FC4 noch mit meiner gtx660 durchgespielt).

Ich habe mal auf der GTX470 getestet. Die hat es auf Niedrig und 1080P nicht geschafft, die 40FPS zu halten. Darunter ruckelt es für mich und ist unzumutbar.
 
Ich hab interessehalber grad mal nachgesehen und bin ob der Formulierung bei Far Cry 4 ein wenig verwundert: man spricht von den Mindestanforderungen, aber empfiehlt eine GTX460 oder besser... :freak:
Ja wat denn nun? ^^

Aber ja, das glaub ich dir sofort. Denn erfahrungsgemäss steht die Mindestkonfiguration dafür, dass das Spiel zumindest startet und man sich in der Spielwelt bewegen kann. Von flüssig ist da keine Rede. Darum geh ich v.a. bei grafisch aufwändigeren Titeln nach der Techniktabelle bei Gamestar, in welcher stets CPUs und GPUs in diverse Kategorien unterteilt sind, und man anhand dessen auf einen Blick sieht, wie das Spiel auf dem eigenen Rechner performen sollte.

Ich traue den Kollegen bei Hardwaretests und Benchmarks weniger über den Weg als PCGH, CB & co., aber Spiele testen, das können sie.
 
Das Motion Blur sieht aber echt hart aus! :kotz:
 
Hallo, könnte mir evtl. jemand einen Key geben falls wer einen übrig hat, ich würde es ja wirklich gerne mal antesten.

Danke schonmal
 
bin irgendwie komplett enttäuscht. dachte das wäre mal nen wenig abwechslung zu anderen games. aber das ist ja nen witz. alleine die steuerung. so unterirdisch
 
Ich werde es mir wahrscheinlich zulegen. Habe einige Runden Beta gezockt und es hat Laune gemacht. Scheint mir so ein -easy to learn yet difficult to master-Fall zu sein. Finde ich gut. Darüberhinaus ist die PC-Portierung klasse, läuft bei mir 1A.
 
Zurück
Oben