• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Metal Gear Solid: 20 Grafikkarten im Benchmark mit Phantom Pain

Schon traurig, dass man direkt mal die Vorgänger Karte 290x weg lässt, gibt es dazu einen Grund?
 
Seit wann sind Spiele bei 30fps in einer Auflösung von 1920x1080 nicht mehr spielbar? Greift dieses unsinnige FPS-Rennen nun auch bei ganz normalen Einzelspielertiteln um sich? Bei Mehrspielertiteln kann ich diese fast schon religiöse "FPS-Tatsache", mehr Frames, mehr Kills, noch einigermaßen verstehen. Doch bei Einzelspielertiteln ist es völliger Quatsch die Spielbarkeit erst ab 60fps festzustellen. Die meisten Benutzer würde den Unterschied ohne Programme wie Fraps ohnehin nie bemerken. Vermutlich, weil da gar keiner ist.
 
Wun Wun schrieb:
Dass deine GPU aber nur zur Hälfte ausgelastet ist siehst du schon? :D

Ich habe nur ein Screenshot von meinen Einstellungen gemacht. Im Spiel ist die GPU 100% ausgelastet und die FPS gehen unter 40 FPS. Vor allem Nachts mit der Beleuchtung wird es unspielbar.
 
surogat schrieb:
Seit wann sind Spiele bei 30fps in einer Auflösung von 1920x1080 nicht mehr spielbar? Greift dieses unsinnige FPS-Rennen nun auch bei ganz normalen Einzelspielertiteln um sich? Bei Mehrspielertiteln kann ich diese fast schon religiöse "FPS-Tatsache", mehr Frames, mehr Kills, noch einigermaßen verstehen. Doch bei Einzelspielertiteln ist es völliger Quatsch die Spielbarkeit erst ab 60fps festzustellen. Die meisten Benutzer würde den Unterschied ohne Programme wie Fraps ohnehin nie bemerken. Vermutlich, weil da gar keiner ist.

Was hat das mit Einzelspieler zu tun? Schonmal nen schnellen Shooter mit gerade mal 30FPS gespielt und dann mal mit 60+? Ich bin nicht sooo empfindlich was das angeht aber DAS ist ein Unterschied. 30FPS sind in vielen Fällen zu wenig. 144Hz und FPS müssen es nun auch nicht sein, aber im unteren Bereich sind Unterschiede teils deutlich zu sehen.
 
R9 390/390 X können nicht ganz mit GTX 970/980 mithalten

:D lol...

kein fps Unterschied in 1080p

5 fps Unterscheid in 1440p (imo vernachlässigbar)

5 fps Unterschied in 2160p (imo vernachlässigbar?!)

5 fps... Knappe Unterschiede sollten lieber 10-15 fps sein, das entscheidet am Ende ob spielbar oder nicht, aber nicht 0,1-5 fps...
 
Zuletzt bearbeitet:
Vielleicht lässt man zukünftig zwei Redakteure den Test schreiben. Einen aus der Sicht des Hardcore-Enthusiasten und einen aus der Sicht eines Durchschnittsspielers. Wäre irgendwie angenehmer...

Was ich aus dem ganzen test lese ist auch: game ist zwar oke aber das das das das und das naja alles in allem geht garnicht ...

Finde es sehr shlecht geshrieben und sehe nur shlechtes darin...
Entweder sollte er neu verfasst werden oder man sieht klar den mgs hater hinter dem text
 
krOnicLTD schrieb:
alles schön und gut aber solange der framesync so unspielbar grottig ist wie bei ground zeroes bei allen framerates unter konstanten 60fps isses irrelevant wie gut man das game laufen lassen kann. man benötigt so oder so konstante 60fps in ausnahmslos jeder situation damit man keine verdammten framepacing und skipping probleme hat.

bei ground zeroes bin ich nämlich auf die benchmarks reingefallen. am ende konnte ich es mit meinem system aus der sig nur mit 45-60fps zocken und alles unter 60fps war unaushaltbar. schon 50 und 55 fps hatten unglaublich starke framepacing probleme und frameskipping kam auch immer wieder vor. der framesync ist 10 mal wichtiger als irgendwelche theoretischen werte bei benchmarks :(

wäre vllt nicht schlecht wenn cb das alles mal einführt und vernünftig testet wie es z.b. digital foundry macht. falls cb überhaupt über die kompetenz dazu verfügt ?? ich mein wir sind ja hier nicht bei der gamestar bei welcher mans noch versteh wenn sie nur gradeheraus die framerate testen unabhängig davon ob das game sich auf 45,50,55 fps einen abruckelt oder butterweich läuft ;)

Warum nutzt du dann nicht Vsync?
Damit sollte dein Problem gelöst sein.
 
Minimum Requirements für die CPU laut Steam: Intel Core i5-4460 (3.40 GHz) or better.

Laut Test tun es 2,5 GHz oder auch nur 2 Kerne.

:confused_alt:
 
Gerade bei dem Spiel ist das Aliasing heftig. Man sollte also auf jedenfall auf eine 3000er Auflösung gehen, auch wenn man dann nur 40-50fps und keine 60 erreicht. Selbst teilweise unter 40 würde ich vielleicht sogar verkraften.
 
yui schrieb:
Wird den meisten eh nicht stören. Da die meisten 60Hz Monitore haben.

Ich bin chronischer Vsync benutzer - obwohl ich gerne die Wahl habe, ob das Game ein Limit fahren soll oder nicht. Würde mein Monitor 144HZ können, würde es mich wohl stören ;)
 
Die Angaben:

Optimal spielbar (ab ~55 FPS)

annehmbar spielbar (ab ~40 FPS)

finde ich extrem fragwürdig...

Erstens, muss jeder für sich entscheiden was optimal und was annehmbar ist.
Alles andere resultiert bloß in Glaubenskriegen!!!

Zweitens, sind die Schwellwerte so gewählt, dass sie nVidia Karten in einem besseren Licht darstellen, obwohl dies nicht zutrifft.

Und drittens, hält sich Computerbase an eigene Angaben nicht!

@Computerbase
Das muss korrigiert werden!

Die nVidia-Empfehlung für das "optimale" 1920x1080p lautet GeForce 950 obwohl diese das Ziel von 55fps um über 10% (49,4 fps) verfehlt.

Die AMD-Empfehlung für das "optimale" 2560x1440p lautet Fury (X) obwohl diese bereits im CPU-Limit läuft! Gemessen an der 1080p-Empfehlung würde hier selbst eine r390 ausreichen (51,2 fps) die das Ziel um weniger als 10% verfehlt. Aber vor allem ist sie bereits ab 309 Euro zu haben statt der für eine Fury geforderten 550 Euro.

Besonders bei solch Empfindlichen und anfälligen Themen wie GPU-Leistung darf so etwas nicht passieren, ganz schwach!!!

Update:
Es geht ja noch weiter:

R9 390/390 X können nicht ganz mit GTX 970/980 mithalten

zb. r390 vs 970 (kosten beide das gleiche)

In 1080p erreicht die 390 100% der Leistung einer 970
In 1440p erreicht die 390 91% der Leistung einer 970
In 2160p erreicht die 390 99% der Leistung einer 970

Macht im schnitt 96,66%.

Wegen den 3% eine fette Überschrift anzuzeigen ist imo reine Stimmungsmache und gehört eingestellt.
 
Zuletzt bearbeitet:
pmkrefeld schrieb:
Die Angaben: (...)

Vgl mein Hinweis mit den im Grunde zu vernachlässigenden fps-Differenzen zwischen 390/970 und 390x/980.


edit;
pmkrefeld schrieb:
Wegen den 3% eine fette Überschrift anzuzeigen ist imo reine Stimmungsmache und gehört eingestellt.

Sehe ich genauso. Die Unterschiede sind zu marginal, als dass sie eine vermeintlich klare Tendenz zu einem der beiden Grafikkartenhersteller zulassen würden. Es ist halt einfach Wumpe, ob 390 oder 970 bzw. 390x oder 980.
 
Zuletzt bearbeitet:
finde ich extrem fragwürdig...

Erstens, muss jeder für sich entscheiden was optimal und was annehmbar ist.
Alles andere resultiert bloß in Glaubenskriegen!!!

Zweitens, sind die Schwellwerte so gewählt, dass sie nVidia Karten in einem besseren Licht darstellen, obwohl dies nicht zutrifft.

hast du das spiel schon getestet?
scheinbar nicht... weil ich habs noch nie so gefühlt wie bei diesem spiel aber alles unter 60 fps ist effektiv nicht spielbar

das game BRAUCHT SEINE 60 fps


ob vsync abhilfe schafft weis ich nicht habs nicht getestet... ich nutze gsync und auch gsync bringt keine abhilfe... liegt schlicht am game
 
Die Ps3 und xbox360 version haben auch keine 60fps und sind trotzdem gut spielbar
 
Prokiller schrieb:
hast du das spiel schon getestet?
scheinbar nicht... weil ich habs noch nie so gefühlt wie bei diesem spiel aber alles unter 60 fps ist effektiv nicht spielbar

das game BRAUCHT SEINE 60 fps

Ist also deiner Ansicht nach mit bspw. 55 fps nicht spielbar?
 
Zaptek schrieb:
Die Leute, die zu langsamens Internet haben , können sich ja die DVD version kaufen :freak: :evillol:

Du bist böse :evillol:

Gut programmiert, außer das 60fps cap, das wird hier einige nicht so freuen und ist an und für sich imho ziemlich unnötig bei 90% der meisten PC-Spiele :o
 
Zurück
Oben