• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Metal Gear Solid: 20 Grafikkarten im Benchmark mit Phantom Pain

Pitt_G. schrieb:
" 1.920 × 1.080 ist für eine hübsche Grafik zu niedrig" etz mal Butter bei die Fische, nur weil die Industrie nicht mehr weiss wie sie im übersättigten Markt noch Kaufanreize schaffen soll muss das hier doch keiner Nachblubbern.

Wenn ich dran denke dass im Kabel TV SD Auflösung mit 1024*576p Standard ist....und mir die Kollegen erzählen wie toll doch HD beim Kabel TV ist aber keiner ein HD Paket hat....

meiner 32er 16:9 Röhre hat dank DVB-S immer noch ein ordentliches Bild, nur Feng Shui like ist der Dunkle Würfel in kleinen Wohnungen nicht ganz optimal. Dafür gaukelt der Flachbild einem in kleinen Räumen mehr Platz vor und die Wohnungsbau Mafia freuts

Da geb ich dir Recht.
Es wird bereits viel zu Früh auf hoher Auflösung gemessen und veglichen, ich bin auch nicht bereit 2,3, oder 4 Grakas am laufen zu haben nur um ein verbugtes Spiel zu spielen, wo ist noch die Wirtschaftlichkeit bei?

Ich habe vor vielen Jahren mal 2x 9800GTX+ Black Editionen im SLI betrieben gehabt, die Rechnung hatte ich ein Jahr später im Briefkasten, für nicht und aber nichts.

Also ich bin nicht mehr bereit für 1-2 Spiele im Jahr, die ggf. mal gut werden könnten, so einen Aufriss zu unternehmen.

Ich habe 1 Mann Haushalt, den Kühlschrank habe ich aus Ökologischen Gründen verkauft, wenn was bei mir läuft dann nur der PC oder mein Handy ab und zu und das auch nicht immer, ansonsten bin ich Sport machen.

Ich musste denoch 97€ Strom nachzahlen.

Mein System

4820k
DDR GSkill 32GB
GTX970
1x Samsung SSD 250GB
Wasserkühlung
Auto / Stromsparmodus
 
Kasmopaya schrieb:
Was heißt hier nur? Beispiel GTA 4 in DSR Faktor x4 also 4k gibts kein Flimmern mehr, Kanten kann ich auch keine mehr sehen. Schriften sind winzig und die FPS brechen massiv ein, ganz genau so als ob ich die Auflösung wirklich erhöht hätte.

Recht viel mehr kann ein nativer 4k auch nicht. Zumindest fällt einem das garantiert nicht so stark ins Auge. Im Gegenteil, der ist so unflexibel von der Auflösung her, DSR haus hoch überlegen mit einem 1080p vom Gesamtpaket aus gesehen. Einzelne Pixel kann ich auf jeden Fall nicht sehen. Ka wer da Pixel zählen veranstaltet und es dann beim zocken auch noch sehen kann.
Nur heißt ganz konkret das es eben keine Frage der Monitorauflösung sondern des Renderverfahrens ist. Man könnte ebenfalls Ssaa aktivieren, was jegliches flimmern eliminiert. Ab einem bestimmten Abstand ist es eh vollkommen egal ob man auf einen 2k oder 4k Schirm schaut, was auch bei dir der Fall ist wenn du die einzelnen Pixel nicht ausmachen kannst. Ein 4k Screen würde dann keinen Vorteil bezüglich Detaillierung bieten
 
Zuletzt bearbeitet:
borizb schrieb:
Bis heute verstehe ich nicht, was die 4K Tests mit max Details sollen.
Nur um zu zeigen, dass das auch das teuerste und schnellste system nicht kann?
Wissen wir doch längst :D

haha ja sehr arm oder? :D

Da haben die den Chef raus gehaun und nun läuft es nicht mal, einfach nur traurig. Naja die haben schon seit Jahre nichts mehr gescheides gemacht, eigentlich sollte ja schon seit MTG 3 Schluss sein, hätte es wahrscheinlich auch sein sollen, aber Geld darum ging es jetzt mal wieder.

Die Konsolenfraktion bremst die Entwicklung aus, sieht man doch.
Ergänzung ()

AntiVirus schrieb:
Ich möchte mir ja für Witcher 3 und vorallem auch jetzt wegen MGS: Phantom Pain einen neuen PC kaufen, da ja auch bald non-OC boards und der xeon-skylake(desktop betrieb) rauskommen. Ich war immer für die r390 nitro wegen 8gb ram etc.

Zocken möcht ich dann auf 1440p und siehe da gtx970 3,5gb! hat 7fps ca. mehr wir die r390 8gb! bei 1440p.

Wieso denn das bitteschön? Jetzt doch auf gtx970 wechseln?

Nein kauf dir davon lieber ein gutes Buch und Sportklamotten und ggf. ein Geschenk für deine Freundin oder deiner lieben Mutti, damit hast du mehr gekonnt und dein Geld zu angelegt.

Glaub es mir, mein letzten Rechner habe ich mir sogar gebraucht zusammen gebaut, früher war ich auch mal so ein PC Enthusiast, lohnt sich alles nicht mehr.

liebe Grüße
 
Creeper777 schrieb:
Glaub es mir, mein letzten Rechner habe ich mir sogar gebraucht zusammen gebaut, früher war ich auch mal so ein PC Enthusiast, lohnt sich alles nicht mehr.

Liegt auch wohl daran, dass sich seit 5 Jahren nichts mehr Umwerfendes getan hat in Sachen Hard- und Software. Mit einem alten Core Duo, 4 Gbyte ram und einer AMD 4850 lassen sich noch viele neue Spiele anständig spielen, wenn auch nicht unbedingt immer auf hohen Details. Ich staune selber wie mein 6 Jahre altes Samsung Notebook mit m9600gt mit 256 MB VRam auch sehr neue Spiele gut zum Laufen bekommt (Skyrim und Archeage Null Problem).

Für 200 Euro insgesamt kriegt man schon einen brauchbaren Desktop-Gebrauchtrechner. (Ohne Zubehör natürlich)
 
Zuletzt bearbeitet:
Danke für den kurzen Test & bei irgend einem Sale, werde ich mir das Game vermutlich auch mal gönnen ... :-)
R9 390/390 X können nicht ganz mit GTX 970/980 mithalten
Das ist eigentlich nix neues & je nach Soft(Engine), Settings als auch Taktraten ist das doch nun wirklich nicht überraschend ... :evillol::p
 
Nur heißt ganz konkret das es eben keine Frage der Monitorauflösung sondern des Renderverfahrens ist. Man könnte ebenfalls Ssaa aktivieren
Bei GTA 4 sowieso nicht, da kein AA unterstützt wird soweit ich weis, noch dazu vermatscht SSAA das komplette Bild. Downsampling ist hier haus hoch überlegen. Ich werd nie wieder SSAA, oder ähnliche vermatsche Glättung aktivieren.

Mit dem Rest bin ich einverstanden. Das mit dem Monitorabstand ist ein wichtiger Punkt. Wobei ich auch nicht glaube das jemand den Monitor so nah dran hat, das er Pixel sehen kann wenn man ein Spiel mit DSR auf max. laufen lässt.
 
Zuletzt bearbeitet:
Lübke82 schrieb:
Also bei mir lief es sehr gut mit 45-50fps. Allerdings auch mit G-Sync. Wenn du da Probleme siehst in diesem Framebereich könnte ein G-Syncmonitor helfen.

nunja das hängt ja einzig und allein von der optimierung in bezug auf den framesync ab. da ist ausnahmslos jedes game unterschiedlich. manche laufen butterweich trotz schwankender framerate, andere ruckeln sich einen ab. hinzu kommt noch das das frameghosting ebenfalls unterschiedlich ist. bei gta ist dies z.b. recht stark. in anderen games ist es deutlich schwächer.

nen g.sync tft wäre nice, aber das geld habe ich dafür nicht und wenn ich es hätte, würd ich lieber ne neue graka kaufen womit sich das problem auch erledigen würde anstatt einen neuen tft :D
 
Das was bei dem Test nicht stimmt ist ja wohl offensitlich. Das die 970 nur 2 FPS weniger als die 980TI bei 2k bringt und die 980TI nichtmal 60 FPS lässt darauf schließen, das bei dem Test ein Fehler unterlaufen ist.

Das einfach so stehen zu lassen, ohne das überhaupt zu hinterfragen lässt mich an die Kompetenz des Testers zweifeln. Um es mal deutlich zu machen, die 980Ti bringt bei 2k nur 4% mehr Leistung, bei 4k sind es gleich mal satte 43%.

Ich zweifel nicht an, das die GTX 970 bei 2k ~56 FPS bring, das die GTX 980TI dann aber keine 60FPS schafft, zweifle ich schon stark an...
 
Dann würde ja aber die 390er-Riege nicht soo derbe, herbe abfallen, besonders mit gesegnetem VRAM von 8GB^^. Welches OS ist da eigentlich im Einsatz?

Äußerst ärgerlich und unverständlich ist der ins Spiel integrierte Framelimiter, der sich auch nicht abschalten lässt. Dieser lässt nur zwei Einstellungen zu: Entweder werden die Frameraten bei 30 Bildern pro Sekunde limitiert oder bei 60 FPS.
Scheint für einen GSync-Moni prädestiniert zu sein ... :D
 
Dann würde ja aber die 390er-Riege nicht soo derbe, herbe abfallen
Die ganze AMD Flotte fällt ja ab, das ist ganz klar eine Architektur/Treiber Sache. Bei der 970 bin ich mir ziemlich sicher das ein 3,5GB Swap erfolgt und die Karte somit massiv einbricht.

Sagt ja auch der Test, 4GB unter 4k, eine Stufe drunter noch 3GB, genau die Grenze für die 970. Passt perfekt.
 
Hawaii/Grenada *suckt* ja erst @2160p & vorher ist *eigentlich* noch alles im Rahmen und eine 970er ist @4K(2160p) gerade mal ~5-6FPS entfernt, mit einem Durchsnittswert von Taktrate_X
und ich denke mal, meine wär da wesentlich fixer unterwegs.^^ Die Frametimes wären da noch interessant.
 
Was du immer für einen Müll in die Welt setzt. Sag mal was stimmt mit dir eigentlich nicht? Die GTX 980 ist von Grund auf je nach Spiel ~15% schneller als die 970 und bereits in 1080p. Jetzt ist sie in 4k mal 20% schneller und du quasselst was von massiven Einbrüchen obwohl du eigentlich keine Ahnung hast. Komme mal klar in deiner titanx 12gb vram Welt. Hast du keine anderen Hobbys als immer wieder auf dem Vram anderer Karten rumzureiten? Du bist offenbar mit nichts anderem mehr beschäftigt.
 
Zuletzt bearbeitet:
Creeper777 schrieb:
Ich musste denoch 97€ Strom nachzahlen.

Und das ärgert dich? Wenn Du als Hobby Modell-Flugzeuge/Autos-7Hubschrauber hättest und da die ganze Zeit investieren würdest, da sind 100€ nicht mal der Rede wert :) Wenn man die Hardwareanschaffungen mal außen vor lässt sind die Kosten für das Hobby "Gamen" sehr überschaubar!
 
Ganz ehrlich?

Ich traue den Benchmarks von Spielen nicht, die das eine (nVidia) oder das andere (AMD) Label tragen (meant to be played, etc.). Ich kann mir kaum vorstellen, das AMD bei 1440p vor nVidia liegt, um dann bei 2160p "einzubrechen"?

So lange der Framelimiter im Spiel aktiv ist und sich für Benchmarks nicht abschalten läßt, ist das Spiel sicher NICHT Benchmark-geeignet.

Interessant wären hier allerdings nochmal ein Vergleich von Adaptive- und G-Synch auf 40 und 60 FPS. Verschwindet das Flimmern auch ohne VSR/DSR?
 
" 1.920 × 1.080 ist für eine hübsche Grafik zu niedrig" etz mal Butter bei die Fische, nur weil die Industrie nicht mehr weiss wie sie im übersättigten Markt noch Kaufanreize schaffen soll muss das hier doch keiner Nachblubbern.
Mhm? Schonmal an einem höher aufgelösten Monitor gessen und gespielt? Der Unterschied ist groß! Vor allem in Spielen mit feinen Details wie Phantom Pain ist der Unterschied sehr groß.
Natürlich wird Full HD dadurch nicht unbrauchbar. Nach zig Jahrens "an der Spitze" ist 1.920x1.080 mittlerweile halt nicht mehr Up to Date. War 1.280x1.024 irgendwann auch nicht mehr :)

wieso wurde die 290x weg gelassen?
20 Grafikkarten zu testen dauert schon was und irgendwann muss man halt den Schlussstrich ziehen, sonst wird man nie fertig. Bei der 290(X) ist dieser auch verdammt schnell zu ziehen, da die 390(X) ja sehr ähnlich sind. Sprich, einfach knapp 10 Prozent abziehen und schon ist man bei der 200er-Leistung.

Finde es sehr shlecht geshrieben und sehe nur shlechtes darin...
Entweder sollte er neu verfasst werden oder man sieht klar den mgs hater hinter dem text
Ich habe bis jetzt noch keinen Teil von Metal Gear Solid gespielt und Phantom Pain werde ich vielleicht auch nicht spielen. Ich kann also gar kein Hater sein (genauso wenig wie ein Fanboy);)
Wie das Spiel ist, mag ich nicht zu beurteilen. Das ist eine rein technische Betrachtung, ein Test des Spiels kommt später. Und die Technik hat halt so einige Macken, die mir unschön aufgefallen sind.

Erstens, muss jeder für sich entscheiden was optimal und was annehmbar ist.
Alles andere resultiert bloß in Glaubenskriegen!!!
Zweitens, sind die Schwellwrte so gewählt, dass sie nVidia Karten in einem besseren Licht darstellen, obwohl dies nicht zutrifft.
Und drittens, hält sich Computerbase an eigene Angaben nicht!
Natürlich muss jeder für sich entscheiden, was ihm reicht. Das sind halt unsere Empfehlungen. Bei Grafikkartentests empfehlen wir auch Grafikkarte a oder b - und der Käufer will aus Grund xyz vielleicht eine ganz andere.
Die Schwellen werte sind absichtlich so gewählt. Das hat mit AMD oder Nvidia nichts zu tun. Fallen manche Modelle eines Herstellers in diese Schwelle, ist das einfach so. 40 FPS ist meiner Meinung nach schon das, was man bei dem Spiel im Schnitt haben sollte. Dauerhaft 60 FPS sind natürlich nett, nur was macht man dann mit Karten, die auf z.B. 58,8 kommen? Darum 55, zudem man da quasi keinen Unterschied spürt.

Fehler in der Empfehlungstabelle können passieren - dann einfach (gerne per Mail) darauf hinweisen. Allerdings sehe ich da keinen. Die GTX 950 steht ja nicht in der optimalen Spalte, sondern bei annehmbar - da, wo sie hin gehört. Und die 390X kommt in 2.560 halt icht an die von uns geforderten 55 FPS heran. Da geht es ja nicht um CPU- und um GPU-Limit (im CPU-Limit sind die Karten auch nie). Die Karte schafft einfach keine 55 FPS, Fury (X) dagegen schon. Und um Preise geht es da auch nicht.

"annehmbar Spielbar" ist bei euch 40 FPS?
Bei mir sind ~30 FPS sehr flüssig und 20-25 annehmbar.
Dann sei froh, kanst du Geld sparen :)
20-25 FPS sind für mich (und ich glaube auch viele im Forum) aber leider unspielbar - in eigentlich jedem Spiel. Erst recht, wenn es ein Durchschnittsergebnis ist.

Das was bei dem Test nicht stimmt ist ja wohl offensitlich. Das die 970 nur 2 FPS weniger als die 980TI bei 2k bringt und die 980TI nichtmal 60 FPS lässt darauf schließen, das bei dem Test ein Fehler unterlaufen ist.

Das einfach so stehen zu lassen, ohne das überhaupt zu hinterfragen lässt mich an die Kompetenz des Testers zweifeln. Um es mal deutlich zu machen, die 980Ti bringt bei 2k nur 4% mehr Leistung, bei 4k sind es gleich mal satte 43%.
GEstutzt habe ich auch, habe es nachgemessen und es ist nochmal so rausgekommen. Es gibt offenbar eine kurze Stelle, wo die Karten halt FPS-Mäßig etwas einbrechen und sonst hängen sie im 60 FPS Limit. Das erklärt das Ergebnis.

Welches OS ist da eigentlich im Einsatz?
Windows 8.1
 
AntiVirus schrieb:
Ich möchte mir ja für Witcher 3 und vorallem auch jetzt wegen MGS: Phantom Pain einen neuen PC kaufen, da ja auch bald non-OC boards und der xeon-skylake(desktop betrieb) rauskommen. Ich war immer für die r390 nitro wegen 8gb ram etc.

Zocken möcht ich dann auf 1440p und siehe da gtx970 3,5gb! hat 7fps ca. mehr wir die r390 8gb! bei 1440p.

Wieso denn das bitteschön? Jetzt doch auf gtx970 wechseln?
Wenn du in 1440p zocken willst, dann ist eine 390 ganz klar zu bevorzugen. Da können 3,5 GB @224bit schneller eng werden als 8 GB @512bit. Von der höheren Rohleistung und den 8 ACEs ganz zu schweigen. Das wird so ein Nvidia Fanatiker wie Suddendeath mit seiner 970 natürlich anders sehen, aber selbst im CB Rating ist die 390 mindestens so schnell wie eine 970 OC.

Dass die 970 in diesem Spiel vorne liegt, hat wohl eher damit zu tun dass MGS5 ein Nvidia gesponsertes Spiel ist... Denn normalerweise sehen Radeons vor allem in höheren Auflösungen besser aus.
 
Kasmopaya schrieb:
Die ganze AMD Flotte fällt ja ab, das ist ganz klar eine Architektur/Treiber Sache. Bei der 970 bin ich mir ziemlich sicher das ein 3,5GB Swap erfolgt und die Karte somit massiv einbricht.

Ich bin mir da nicht sicher, denn ich weiß, dass die Limitierung bei 60 fps die Mittelwerte verfälscht und die Karten dadurch in der Messung näher beieinander liegen, als es ihrer Leistungsfähigkeit entspricht.

Die Messwerte bei 1920 und 2560 sind für leistunsgstarke Karten somit eher unbrauchbar.
 
Wolfgang schrieb:
20 Grafikkarten zu testen dauert schon was und irgendwann muss man halt den Schlussstrich ziehen, sonst wird man nie fertig. Bei der 290(X) ist dieser auch verdammt schnell zu ziehen, da die 390(X) ja sehr ähnlich sind. Sprich, einfach knapp 10 Prozent abziehen und schon ist man bei der 200er-Leistung.

Hallo Wolfgang!

Das versteh ich natürlich und ist auch absolut vernünftig bei Benchmarktests von einzelnen Spielen. Trotzdem würde ich mich - gerade nach dem Erscheinen von Windows 10 und dem 15.7.1er Catalyst/ 353.62er Geforce - über einen ausführlichen Test sämtlicher Karten von AMD und nVidia der letzten 2-3 Jahre freuen, gerne auch im Vergleich du Windows 8.1, um mal den aktuellen Status quo des Marktes festzuhalten. Wenn sich dann noch ein kleines Unterkapitelchen mit einem speziellen Leistungsvergleich der 290/290X vs. 390/390X bei identischem GPU/vRam-Takt UND Treiber beschäftigt wär ich wunschlos glücklich :)
Ist so etwas bei euch in Planung oder wird ein solcher Artikel aller Voraussicht nach Wunschdenken bleiben?

lg autoshot
 
Zurück
Oben