• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Mittelerde im Benchmark: Schatten des Krieges braucht bis zu 8 GB Grafik-Speicher

@SKu
Stimmt mein Fehler :D
Habe ich falsch formuliert.
 
@Wolfgang

Ein paar kleine Fehler im Update:

Core i5-7600K (4C/4C) oder ein brandneuer Core i7-8700K (6C/12T) zum Einsatz kommen, ...
... Mittelerde bleibt auf mit diesen CPUs spielbar, ...
 
Vitali.Metzger schrieb:
Also das der 1800X 34% langsamer ist als die Intels ist normal Ungewöhnlich.

Ja...CB hat mal wieder nicht einen Vega @Intel vs Vega @AMD CPU getestet als Vergleich z.B. mit einer 1080.

Dann würde man sehen dass wegen des nVidia-Treibers die AMD CPU totale mickroruckler hat was man bei so einem Vergleich wo er denn gemacht wird sieht dass die avg und die 99th percentile runtergezogen werden.

Wenn Vega@Intel CPU also z.b. 65FPS 99Percentil bringt und Vega@Ryzen ebenfalls 65 FPS 99 Percentil. Aber die Kombination 1080@Intel halt 70FPS 99Percentil aber 1080@Ryzen nur 60FPS dann stimmt doch was nicht oder ?

Warum könnt ihr nicht endlich (standardmäßig) so einen Test mitliefern ???
Es ist dabei auch völlig egal welche CPUs ihr da nehmt. Hauptsache nur nicht im GPU-Limit sein.

Wenn die GPUs im Game A dann bei 720P oder whatever mit GPU A einen Offset von 10% haben wenn man von CPU A auf CPU B wechselt und bei GPU B EBENFALLS ist alles normal. Wenn aber mit GPU B plötzlich - 30% da stehen weiss man das das was im argen ist.

Kurzer Test. 2 GPUs A und B, 2 CPUs a und b Game 4 mal starten. Einmal mit Aa und einmal mit Ab und einmal Ba und einmal Bb und fertig. Wieder was gelernt.

EDIT: http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/News/AMD-Geforce-Bremse-1225065/
https://www.techspot.com/article/1374-amd-ryzen-with-amd-gpu/page4.html

Nachtrag auch wenn uralt: https://www.youtube.com/watch?v=QBf2lvfKkxA&feature=youtu.be
 
Zuletzt bearbeitet:
Mir persönlich sind die Angaben zum Testsystem zu wenig (Win10 Game Modus On/Off) etc
 
mhh ehrlich das Spiel sieht absolut übel aus.. quasi Augenkrebs im Endstadium!
Dagegen ist das alte Crysis aus dem Jahr 2007 eine Augenweide!
Darum ist es auch egal ob das Teil 8GB VRAM verbraucht oder sonst was..
kann man gleich hier hin installieren: $RECYCLE.BIN :freak:
 
So schlimm ist es wirklich nicht. Außerdem macht das Spiel den Großteil deines Spielspaßes und nicht die Grafik. PUBG sieht auch aus wie Titel vor 10 Jahren.. und?

Guck dir nen CGI Streifen an und gut
 
Danke für den CPU-Test.

Wie erwartet ein crappy Konsolenport, der a) viel zu viel Grafikkartenleistung frisst und b) nur auf max. 4 Kerne (oder sogar Threads?) optimiert ist.
Technisch gesehen also von vorvorgestern.
 
Iscaran schrieb:
Dann würde man sehen dass wegen des nVidia-Treibers die AMD CPU totale mickroruckler hat.

Das stimmt so einfach nicht. Gibt es nicht.
 
Wenn das Spiel Gameplaytechnisch überzeugt und Spaß macht wie Teil 1, schön und gut.

Aber die Lootbox-Implementierung und die recht schwache technische Umsetzung halten mich vom Kauf ab.
Wird vielleicht mal was zum Summer- oder Wintersale in Steam. Wie leider so oft in letzter Zeit. Die letzten Spiele die ich zum Vollpreis gekauft habe waren Dark Souls 3 und The Witcher 3, das wird wohl vorerst so bleiben.
Naja, der Geldbeutel bedankt sich.

Zum Test: Sehr erfreulich dass die Vegas sich gut schlagen. Es wäre zu wünschen dass sich das bei anderen Spielen fortsetzt und die Vega ihre Rohleistung "auf die Straße" bekommt, wie so gern gesagt wird.

Wie schon vielfach gefordert hier fände ich eine Gegenüberstellung Vega / Pascal @ Intel und Vega / Pascal @ AMD Ryzen sehr interessant. Nicht unbedingt bei diesem einen Spiel sondern generell bei Tests von CPUs und GPUs.

Das stimmt so einfach nicht. Gibt es nicht.

Deine Aussage könnte man so wunderbar belegen. Bzw. aufzeigen, ob es überhaupt Unterschiede gibt und inwiefern sich diese auswirken. Gehört m.M.n. zu redaktioneller Arbeit hinzu. Das drängt ja auch nicht aber sobald Zeit dafür frei ist würde sich sowas ja anbieten.

Ich bezweifle aber auch, dass Nvidia-Treiber unter AMD-CPUs Ruckler verursachen. Damit würde sich Nv selbst ins Knie schießen, die haben ja bspw. selbst mit ner 1080 Ti in Kombination mit Threadripper geworben.
 
Zuletzt bearbeitet:
Saki75 schrieb:
Basierend auf schlechten Konsolenports wo die Grafik die selbe ist wie auf dem PC (Bestes Beispiel Witcher 3 PS4 Pro).

Auch bei der Pro Version fehlt z.B. immer noch Hairworks, und der Patch ist nicht wirklich gelungen, da man jetzt auf einer PS4Pro zwar bessere Optik hat, aber auch schlechtere fps als auf der normalen PS4 und soweit ich weiß kann man nicht wählen, dass man die normale Version wieder nutzen möchte.
 
Iscaran schrieb:
Ja...CB hat mal wieder nicht einen Vega @Intel vs Vega @AMD CPU getestet als Vergleich z.B. mit einer 1080.

Dann würde man sehen dass wegen des nVidia-Treibers die AMD CPU totale mickroruckler hat was man bei so einem Vergleich wo er denn gemacht wird sieht dass die avg und die 99th percentile runtergezogen werden.

Wenn Vega@Intel CPU also z.b. 65FPS 99Percentil bringt und Vega@Ryzen ebenfalls 65 FPS 99 Percentil. Aber die Kombination 1080@Intel halt 70FPS 99Percentil aber 1080@Ryzen nur 60FPS dann stimmt doch was nicht oder ?

Warum könnt ihr nicht endlich (standardmäßig) so einen Test mitliefern ???
Es ist dabei auch völlig egal welche CPUs ihr da nehmt. Hauptsache nur nicht im GPU-Limit sein.

Wenn die GPUs im Game A dann bei 720P oder whatever mit GPU A einen Offset von 10% haben wenn man von CPU A auf CPU B wechselt und bei GPU B EBENFALLS ist alles normal. Wenn aber mit GPU B plötzlich - 30% da stehen weiss man das das was im argen ist.

Kurzer Test. 2 GPUs A und B, 2 CPUs a und b Game 4 mal starten. Einmal mit Aa und einmal mit Ab und einmal Ba und einmal Bb und fertig. Wieder was gelernt. (Video u.Links aus Zitat entfernt)
Ich bin absolut Deiner Meinung. Damals als Ryzen raus kam, konnte man im Release-Test sehen, dass BF1 DX12 +1080Ti problematisch war. P3DNOW hatte zum Ryzen-Release mit einer FuryX getestet, und dort konnte man dieses Verhalten schon beobachen. Und nein, nicht im GPU-Limit! Ich denke man könnte der ganzen Sache mal genauer auf den Grund gehen, nämlich genauso wie du es beschrieben hast.


cruse schrieb:
wozu sollte man eine 6 Jahre alte GPU mittesten? ...außerdem wozu ? für einstellige fps werte in fhd ?
Du wirst es ja wohl hinbekommen und vergleiche ziehen können, so wie alle anderen auch.
Eine AMG GTX 560 gibt es nicht. Er meinte sicherlich eine RX 560. Hätte man auch von alleine drauf kommen können.
Aber in der Tat, kann man sich auch mit einer Uralt-Karte noch über Wasser halten, wenn der VRAM noch reicht, und man mit 25FPS auf Low-Mittel zufrieden gibt ;-)
 
SKu schrieb:
Das stimmt so einfach nicht. Gibt es nicht.
Wenn es so ist dann kann man das ja ganz einfach belegen...nicht ?

Ich habe oben einige Reviews gelinkt die zeigen DASS es zum Teil massive Unterschiede gibt. Leider ist KEINES dieser Reviews auch nur annähernd vernünftig an die Situation rangegangen. Entweder auf DX11 vs DX12 fokussiert oder aber tests z.T. im totalen GPU Limit, was man auch sieht. Und diese dann anderen Tests gegenübergestellt wo das nicht der Fall ist.

Es stimmt schon dass symptomatisch DX12@Ryzen@nVidia das größere Problem ist. Aber einen 720p Test Aa,Ab, Ba, Bb wie ich oben fordere wird man ja wohl mal machen können und wenn Zeit ein Problem ist dann lieber die 10 Subvarianten der 1080 Ti nebst FE und 1080 OC versionen einfach weglassen.
 
cruse schrieb:
wozu sollte man eine 6 Jahre alte GPU mittesten? ...außerdem wozu ? für einstellige fps werte in fhd ?
Du wirst es ja wohl hinbekommen und vergleiche ziehen können, so wie alle anderen auch.

Wäre mir neu wenn AMD ne GTX gebaut hätte.
Mal auf die Idee gekommen das AMDs Rx 560 gemeint sein könnte?
 
Iscaran schrieb:
Wenn es so ist dann kann man das ja ganz einfach belegen...nicht ?

Ich wollte damit ausdrücken, dass die Formulierung viel zu allgemein ist. Unter DX11 stimmt das definitiv nicht. Ich kann nur meine Erfahrung wiedergeben. Ich habe auch keine AMD GPU, um das überprüfen zu können.
 
Vielen Dank für das Update. Schön wäre noch ein Vergleich mit AMD Grafikkarte und Intel/AMD-CPU. Der Treiber hat doch immernoch den größten Einfluß. In einem Dx12 Titel wären dieErgebnisse sicherlich jedoch interessanter.
 
Dai6oro schrieb:
HBCC ist echt ein geiles Feature wenn es mal durchgehend funktioniert ein echter Mehrwert. Bringt sogar was wenn der RAM nicht ausgelastet wird weil die GPU besser weiß wie mit dem Speicher umzugehen ist.

Das bringt alles nichts wenn es dann nicht richtig funktioniert. Auch die Ryzen Prozessoren sind sehr schwach und in dem Spiel definitiv eine Bremse.
Prozessoren ghörn im CPU Bottleneck getestet, aslo bitte kein Full HD sondern runtern auf 720p danke.
 
Zuletzt bearbeitet:
Gschwenni schrieb:
Das bringt alles nichts wenn es dann nicht richtig funktioniert. Auch die Ryzen Prozessoren sind sehr schwach und in dem Spiel definitiv eine Bremse.
Prozessoren ghörn im CPU Bottleneck getestet, aslo bitte kein Full HD sondern runtern auf 720p danke.

Nur komisch das Intel bei UHD gegen den R5 1600X und R7 1800X verliert. Ich spiele in UHD und da ist die Grafikkarte wichtiger und wenn der Ryzen dann mehr bringt als Intel ist doch alles super.
 
Kabelkasper schrieb:
Nur komisch das Intel bei UHD gegen den R5 1600X und R7 1800X verliert.

Verliert? Wir sprechen vom Pentium G4650 bis zum 1800X von 0,4fps, das sind 0,6% also völlig im Bereich der Messungenauigkeit und selbst da ist der 7600K zu 100% gleichauf mit dem 1800X.

Hätte man den Test ein zweites Mal gemacht, hätte die Reihenfolge der ersten 6 CPUs auch komplett anders aussehen können.

Bei den Frametimes das gleiche, hier bricht der Pentium zwar ein, aber vom 7600K bis zum 1800X sind es 1,4fps Unterschied.
 
Zuletzt bearbeitet:
Zurück
Oben