• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Far Cry 5: Für 4K mit 60 FPS braucht es SLI oder CrossFire

Wo soll der Grakawahn noch hingehen?

Bis FHD ist ja ok - aber 4K - das ist schon deftig.
 
Etwaa OT aber ich bin wirklich begeistert von meiner R9 290X.. Damals ein richtiges Monster und auch heute spiele ich noch alles in maximalen Details in FHD..
 
Ich bin dermaßen auf die ersten Tests gespannt!

Wenn es das hält, was es verspricht, wird FC5 seit langem mal ein Titel, den ich mir kurz nach release kaufen werde.

Monitor hat FHD, Hardware passt angeblich auch. Wobei ich da lieber ein paar Regler zurück schrauben werde für wirklich konstant >60 fps und average fps Richtung 100. Man muss den 120Hz Bildschirm ja wenigstens etwas fordern ;D
 
Ist das in dem Trailer "echtes" PS4 footage? Wenn ja, ist das schon ne ziemliche knaller Grafik.

Wenn es das hält, was es verspricht, wird FC5 seit langem mal ein Titel, den ich mir kurz nach release kaufen werde.

dito
 
ZeroCoolRiddler schrieb:
Die CPU Angaben sind lustig. Als wenn die CPU bei 60fps@4k mehr gefordert wäre als bei 60fps@1080p. Logisch...:rolleyes:
habe auch grad an meinem Verstand gezweifelt...so ein quatsch.

Wobei ich die GPU-Anforderungen nicht so recht glauben mag. Für ~1080p@60fps auf high reicht eine R9 290X? Hmm...dafür sieht die Grafik in den Videos zu gut aus. Das hab ich ja gerade so im neuen Wolfenstein hinbekommen und das ist ein AMD Vorzeigetitel und kein Open World...naja abwarten.
 
Warum sind so viele Leute so heiß auf das Spiel? Es ist das drölftausendste Ubi-formel Spiel. Ganz ehrlich, was erwartet ihr?

Das Gameplay ist das gleiche wie seit Jahren, deswegen muss man es sich nun wirklich nicht kaufen. Darauf gibt's dann sicherlich wieder ubi-typisch eine mittelmäßig bis schlechte KI, eine lala Story, die man nach dem Abspann schon wieder vergessen hat, da sie völlig belanglos ist.

Aber kein Wunder, dass bei den Ansprüchen der Masse fast nur noch Mist kommt und man ewig auf Mal ein halbwegs ordentliches Spiel warten muss.

Aber okay, so komme ich noch ewig mit meinem Xeon und 780ti oc hin. Reicht bei fast allen Spielen für 1080p @ ultra und die miesen Konsolenports der großen Publisher meide ich eh ziemlich.

@Begu: warum nicht? Wenn der vram-bedarf nicht zu extrem ist (was den Anschein macht, sonst würde man eine 390x, 1080ti empfehlen), dann hat die 290x mehr Power, als die aktuellen Mittelklassekarten (1060, rx480)

Hawaii ist eh in meinen Augen mit Abstand der beste Chip, den AMD seit langem gebracht hat.

Und so gut sieht das Spiel auch nicht aus, nichts, was man nicht schon in den letzten Jahren gesehen hat. Traurigerweise sieht das 5 Jahre alte Crysis in max Dettingen noch immer mindestens genauso gut aus, in manchen Aspekten sogar besser und das bei einem Bruchteil der Anforderungen.
 
Zuletzt bearbeitet:
der reissereische CB-Titel FTW :evillol: angehender BILD-Mitarbeiter?


welches aktuelle und moderne und superaussehende Game braucht bei 4K@60fps denn nur eine GPU? C'maaaaaaaaaaan
 
Kantico schrieb:
Echt? Krass! Danke für den Tipp, Kumpel - hat super funktioniert:
http://bfy.tw/GBTW

Da sind schon ein paar Kandidatinnen dabei.
Hast mir 2xGTX 1080 erspart - ich schulde Dir ein Bier.

AV = Adult Video
Und das war nen witz, der sich auf deinen kommentar mit der ollen bezog, die man da sieht. :D
 
Ich glaube auch, das das Gameplay langweilig wie bei x Ubisoft-Titeln sein wird.
Bzw. sich wie alle Far Cry - Titel seid Far Cry 2 spielen wird.
Erlege x Moorhühner um dir ein Federhut bauen zu können ...
Häute x Gürteltiere, um mehr Waffen u. Munition mit rumschleppen zu können ...

Die alte auf dem Bild erinnert ein wenig an Penny. Aber nur auf dem ersten Blick. :-)
 
Sollte auch auf meinem zweit Rechner laufen :D Naja viel wichtiger ist ob das Spiel was taugt.
Was Story angeht war Teil 3 meiner Meinung nach der beste.
 
Zuletzt bearbeitet:
radoxx schrieb:
Etwaa OT aber ich bin wirklich begeistert von meiner R9 290X.. Damals ein richtiges Monster und auch heute spiele ich noch alles in maximalen Details in FHD..

ich bin auch sehr stolz auf meine betagte 290er, aber in FHD gibt es trotzdem schon genügend Ausreißer wo man Abstriche bei den Settings tätigen muss :)
 
Was nützt mir eine tolle 4K Grafik, wenn sich seit Jahren fast nichts am inzwischen langweiligen Gameplay ändert.
 
Da sieht man wieder das es sich absolut noch gar nicht lohnt in 4K zu spielen, weil man ständig investieren müsste um alles vernünftig spielen zu können...
 
WO sind die Leute, die meinen CF/SLI ist tot? :D
Kommt schon, Jungs, das MUSS doch irgendwie tot zu schreiben sein. Schließlich habt ihr 2013 mal gehört, dass das nix bringt.

Oh, sorry, @andiPrime, hätte dich fast übersehen. :lol:
 
Kantico schrieb:
Die Olle auf dem Clickbait-Bildchen will in 4K@60 betrachtet werden.

Muss man sich das als Redakteur eigentlich überall gefallen lassen?
1. Unwort des Jahres
2. Lies deine IT-News halt irgendwo anders...
 
Was ich bisher so vom Gameplay gesehen habe finde ich die Anforderungen schon in Ordnung, sind ja übrigens fast die selben wie FC4 und Primal.

Allerdings hab ich FC4 erst vor 3-4 Monaten durchgespielt und es ist leider wirklich so, dass es einfach jedes mal fast dasselbe ist.

Vom Setting her ist es leider nicht so meins, lieber wäre mir ein Wildwest, Mittelalter, Römer oder auch evtl. ein WW2 Szenario, wobei das wohl schwierig sein könnte.
 
Saki75 schrieb:
Kann mann eigentlich ubisoft gerichtlich dazu zwingen ein Spiel mit und ohne Kopierschutz vorzuführen zwecks performanceverlust ?

Vermutlich nicht.

Warum sollte man das auch können?

Dich zwingt ja schließlich auch niemand dazu Ubisoft spiele zu kaufen.
 
n8mahr schrieb:
WO sind die Leute, die meinen CF/SLI ist tot? :D
Kommt schon, Jungs, das MUSS doch irgendwie tot zu schreiben sein. Schließlich habt ihr 2013 mal gehört, dass das nix bringt.

CF und SLI ist doch auch Tod... Bei den meisten spielen die 2013 rausgekommen sind, war das ja noch okay, aber immer weniger Titel supporten Multi GPU Setups und die Skalierung wird meistens auch immer schlechter. Aber kein Wunder, nachdem sogar die GPU Hersteller den Support dafür zurückgefahren haben... Es sind ja auch ewig keine vernünftigen Dual-GPU Karten mehr gekommen. Nvidias letzte Consumer Dual GPU Karte (Titan z) war ein schlechter Scherz und auch die Radeon Pro Duo hatte kaum Relevanz.

Ich denke MCM wird die Zukunft sein, ähnlich wie bei den CPUs. Dann entwickeln die Hersteller nur noch einen kleinen Chip und kann dann beliebig viele koppeln und entsprechend große Karten bauen.

Nachdem AMD und Nvidia quasi selbst den Tod eingeläutet haben, würde ich für das zocken mir kein Dual GPU System mehr anschaffen.
 
Zurück
Oben