• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Mittelerde im Benchmark: Schatten des Krieges braucht bis zu 8 GB Grafik-Speicher

Caramelito schrieb:
Also CoD ist echt ein sehr gutes Beispiel.

Die Updates seit CoD 4 MW halten sich in Grenzen (ist ja immer noch dieselbe Engine??).
Der VRAM-Konsum ist aber abartig in dem Game. Siehe VRAM-Test von CB mit CoD Black Ops 3..da war schon die 6gb 1060 notwendig für ruckelfreies Spielen. Die RX 480 8gb war natürlich ebenfalls top, aber die 4gb Version hatte deutliche Ausreißer.

Und das bei der gammeligen Optik. Hut ab! :D

Dann starte doch mal ein altes CoD .. ein MW2 oder MW3 .. und schau dir die Grafik mal an :D
Es hat sich schon einiges geändert... nur ist es halt nicht auf dem Niveau eines BF oder dergleichen.

Oft hat man Titel auch einfach besser in Erinnerung als sie wirklich waren ;)
 
WOW! Das sieht ja garnicht mal so gut aus!
Un dann diese Performance. Das schmerzt schon. Zurück ans Reißbrett Monolith!
 
Christi schrieb:
ein witcher 3 ist 2,5 jahre alt, verbraucht 2-3 gb vram und sieht in allen besser aus. die charakter sehen bei mittelerde sowas von altbacken aus, genauso wie die restliche präsentation.

Genau das ist mir auch beim Lesen des Tests in den Sinn gekommen ;)
Daran sieht man mal wieder, dass man auch mit deutlich weniger HW-Anforderungen ein optisch phantastisches Spiel zauber kann!
 
Also bei meiner 1080TI werden in 1440p mit Ultra Texturen 8.5 GB fällig
 
Laut Afterburner nimmt sich SoW bei 1440p @ Ultra bei mir auch gute 9GB.. aber auch nicht mehr.
Stand im Test nicht was von "es füllt den verfügbaren Speicher" ?
 
Piak schrieb:
Spannend zu sehen, dass sich die Vega 56 in 4K erstmals vor eine GTX1080 setzen kann.

Ich hab's mal korrigiert, obwohl ich als Besitzer einer 1080 eigentlich nicht mit Kritik an Nvidia umgehen kann und unter generellem Fanboy-Verdacht stehe. Allerdings sollte man abwarten, was da noch kommt. Der erste offiziell für Forza 7 optimierte Nvidia-Treiber war ja auch nicht optimal. Die Geschichte könnte sich wiederholen, aber ansonsten hätte ich auch kein Problem damit, wenn die Vega Architektur aufholt bzw. in dem einen oder anderen Szenario Vorteile hat.
 
Und das bei dieser Grafik?
Da sieht selbst ein GTA V mit Redux besser aus und frisst gerade mal in WQHD Ultra 5GB Vram.
 
founti schrieb:
Dann starte doch mal ein altes CoD .. ein MW2 oder MW3 .. und schau dir die Grafik mal an :D
Es hat sich schon einiges geändert... nur ist es halt nicht auf dem Niveau eines BF oder dergleichen.

Oft hat man Titel auch einfach besser in Erinnerung als sie wirklich waren ;)

Klar hat sich was getan.

Letzte Woche habe ich auch die neue CoD Beta gespielt. Frisst Vram mal wieder.
Von BF1 ist es ungelogen Welten entfernt. Sehr matschig, wirkt wie ein "gutes" Spiel aus 2012 oder dergleichen, mehr nicht meiner Meinung nach.

Aber die Engine gehört einfach erneuert, CoD MW1 ist 10 Jahre alt. Die Engine wird jedoch sogar seit 2003 verwendet (CoD 1).
Und immer weiter aufbohren aufbohren und man hat seit n paar Jahren einen Stillstand, zumindest sieht es so aus.
Dazu dann der HW-Hunger..

Im Endeffekt, wenn du den damaligen Standard nimmst, war MW1 graphisch geil.
Wenn du die CoDs aus 2015, 2016 und 2017 nimmst --> Lächerlich =)
 
Da gabe ich dir recht.

Man sollte vor allem mal bedenken was der Grundstein für die CoD Engine war und noch immer ist...die iD Tech 3 :D
Die kam ursprünglich 1999 raus ;)

Eine neue Engine ist definitiv eigentlich schon lange notwendig. Aber für das Alter der Engine muss ich immerhin eins feststellen.
Die Jungs können Multicore nutzen und auch aktuelle Hardware ausnutzen... das optische Ergebnis ist dann wieder eine andere Seite der Medaillie
 
Geile Grafik, geile Anforderungen, geiles Spiel :lol:

Bei der Grafik sollte auch eine GTX970 um es in 4k flüssig zu spielen...
 
berkeley schrieb:
ComputerBase Zitat:


Finde ich jetzt etwas heuchlerisch, dass AMD ein klarer Nachteil der älteren Generationen attestiert wird, nur weil VEGA vergleichsweise sehr gut performt. Seit wann bitte ist der Maßstab für solche Aussagen die neue Generation (samt Architektur) des gleichen Herstellers anstatt die vergleichbare alte Generation des Konkurrenten?
Oder man formuliert, dass die neueren Nvidia Generationen klar im Nachteil sind... Und nun?

Wenn ihr schon AMD mit AMD vergleicht, dann formuliert bitte nicht solche unsinnigen Überschriften. Jeder Depp denkt doch gleich, dass die alte AMD Generationen ggü. Nvidia schlechter gestellt ist...
Dabei performen die R9 390 fast identisch zu der GTX 970 und die RX580 zu der GTX 1060. Nur die VEGA skaliert vergleichsweise besser als die Konkurrenz.

Und in den allerletzen 2 Sätzen wird dann das überhaupt relevante versteckt, was letztlich 0 zu der Überschrift passt

Genau wie die RX 580 gleich bzw. vor die GTX1060...

Und wieso genau also sind ältere AMD Generatioen nun klar im Nachteil wenn sie identisch oder besser als die Konkurrenz performen?

@CB kann sich bitte jemand darum kümmern? Sowas geht ja mal gar nicht. Habs mir auch gedacht... die 390 liegt gleich auf mit einer 970 und ihr labert was von wegen schneiden schlechter ab...

Was ist denn das für eine verkehrte Logik von euch... Nur weil Vega sehr gut abschneidet, schneiden die alten Karten nicht schlechter ab, als die vergleichbaren konkurrenzmodelle. Also wirklich... und ihr denkt tatsächlich Rechtschreibfehler wären peinlich?
 
Jan schrieb:
Zu seiner Ehrenrettung: Die Überschrift haben wir danach noch mal angepasst. ;)

Ich hab Tl;dr gelesen und dann kam es mir merkwürdig vor und ich bin ins Fazit gesprungen. Ich könnte schwören das ihr mal "Bench" als Flagge über dem Symbol habt, anstatt "Benchmark". Habe eben nach gesehen und da stand meist Benchmark mit im Titel. Evtl. könnt ihr ja anstatt "Test" oder "Bericht" ein "Benchmark" oder so ähnlich hinzufügen. :)
 
Habe ich es dann richtig verstanden das die RX 480 dann nicht so gut ist für das Spiel?
 
Habe ich es dann richtig verstanden das die RX 480 dann nicht so gut ist für das Spiel?

Nö, die geht ähnlich gut wie die GTX 1060, also eigentlich genau wie in anderen Games, das ist hier etwas unglücklich formuliert. Vega schneidet hier bei Mittelerde im Vergleich zu anderen Spielen gut ab, das wird hier so dargestellt als wären die Polaris-Karten deswegen im Nachteil, was im Vergleich zu Konkurrenz aber nicht der Fall ist.

Man könnte das besser so formulieren, die RX Vega können ihre Leistung hier besser ausfahren, sodass sie sich deutlicher von ihren Nvidia-Gegenparts, wie auch von den Polaris Karten der 4xx und 5xx-Reihe absetzen.

Edit: Davon abgesehen, das Spiel sollte man aber eh nicht kaufen. Siehe Lootbox-Geschwür.
 
Zuletzt bearbeitet:
Nitschi66 schrieb:
Man müsste mal die x-Achse so ändern, dass sie einen "zeitstempel" darstellt um die Graphen zu vergleichen. Dann sieht man besser wie die eine Karte mit der Situation umgeht, wo die andere Karte plötzlich einen riesen Frametime Anstieg hat.

Gute Idee, lässt sich aber für Frametimes nicht wirklich umsetzen, weil ja hier die Zeitabschnitte zwischen den einzelnen Frames aufgezeichnet werden. Das kann man nicht auf eine einheitliche Zeitbasis "umskalieren".
 
Ich kann nur mutmaßen, dass die Entwickler nicht mit Herz bei der Sache waren, sonst hätte man mehr auf resourcenschonende Programmierung geachtet und nicht einfach hirnlos alles hingeschlammt.
 
Zuletzt bearbeitet:
berkeley schrieb:
Ich will dir keine Befangenheit unterstellen, aber in Forza 7 ist Vega64 immer noch vor der GTX1080FE.

Im GPU-Limit eben nicht. Oder sollen hier keine GPUs miteinander vergleichen werden?
 
Nun fangen wir mal mit der Liste an:
Wären Lootboxen und das P2W System nicht, wäre das Spiel kein mieserabler Port von der Konsole zum PC, wäre nicht die für einen Mainstream-Titel erbärmliche Grafik, wäre nicht das Spiel unerklärbar groß in Download und Speicherbelegung - könnte man überlegen dass Spiel zu kaufen?
 
Bei kisser ist 1080p Very high halt CPU-Limit, alles klar :freak:

Also merke: wenn Vega vorn liegt, ist es CPU-Limit. Die 13% Vorsprung im CPU-Limit sind Messungenauigkeiten.

/troll
Davon abgesehen, in WQHD herrscht Gleichstand.. Lediglich in 4k kann sich die NV etwas absetzen. Wobei selbst da bei den 99Percentile wieder effektiv Gleichstand herrscht..
 
T-REX schrieb:
@CB kann sich bitte jemand darum kümmern? Sowas geht ja mal gar nicht. Habs mir auch gedacht... die 390 liegt gleich auf mit einer 970 und ihr labert was von wegen schneiden schlechter ab...

Finde ich auch unangebracht. Entsprechend müßte der Satz angepaßt und allgemeiner gehalten werden.
 
Zurück
Oben