• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Mittelerde im Benchmark: Schatten des Krieges braucht bis zu 8 GB Grafik-Speicher

Vielen Dank für die nachgelieferten Testupdates zum HBCC und zu den CPUs, Wolfgang/CB :), insbesondere ersteres finde ich interessant:

In 1.920 × 1.080 bringt die Speichererweiterung auf zwölf Gigabyte (8 GB HBM2 + 4 GB Arbeitsspeicher) bei einem mit 32 Gigabyte bestückten Rechner ein Performanceplus von zehn Prozent bei den FPS und sieben Prozent bei den Frametimes.

Nicht schlecht, Herr Specht, wenn AMD/RTG das zukünftig auch noch vernünftig (oder Aussetzer/Fehler im Spiel) treiber/-entwicklerseitig hinbekommt, ist das schon etwas pfundiges, mit dem man ein wenig wuchern kann, insbesondere dann, wenn dann wirklich bei höheren Speicheranforderungen - als der auf der Grafikkarte physische verbaute Speicher, also bei Speichermangel - dann per HBCC komplett (oder z.T.) kompensiert werden kann.

Darauf bin ich schon gespannt, ob das gut funktioniert, auch wenn ich nicht wirklich scharf bin auf weiter ausuferndes Ressourcenmanagement bei den Entwicklern und möglicherweise 10-12 GB Speicherbedarf bei Höchsteinstellungen (in UHD/4K) im kommenden Jahr schon?

Naja, das bleibt abzuwarten, welcher Entwickler/Publisher dahingehend zuerst vorpreschen wird, ein neues Crysis steht ja leider nicht an (und ob das in Entwicklung befindliche Permadeath-MP-Shooter Spiel so hohe Anforderungen stellen wird, danach sah es dem Demo nicht aus, nicht dass das Spiel deswegen unbedingt schlecht aussah, aber Ressourcen verschlingendes Monster eines Spiel war es eben nicht).

Was die CPUs angeht, sollte mein i7-2600K dann übertaktet irgendwann auch Shadow of War packen können, falls es doch 'mal den Weg in meine Spielebibliothek irgendwann finden wird und bis dahin habe ich ja vielleicht schon auf eine AMD Zen2 oder Zen+ CPU oder einen Ice Lake Prozessor aufgerüstet, die alle dafür mehr als langen sollte.
 
Für was ist der Artikel nun gut? AMD vs Nvidia? Intel vs Ryzen?
Wenn man schon vergleicht, dann bitte mit ordentlich portierten Spielen.

Beim letzten Vergleich dieser Art (Forza7) ist Nvidia nach Release eines neuen Treibers AMD wieder davongezogen...sinnlos solche Bug Games als Referenz zu nehmen, wo sich dann beim nächsten Treiber wieder alles ändert.
 
Sliskovic schrieb:
Nö Aber die GTX 2080 oder GTX 1180.

Die wird besser sein als die GTX 1080 TI , weil das schon immer so war , dass zB:

GTX 1080 > GTX 980 ti ( 20% unterschied )
GTX 980 > GTX 780 ti ( 30% unterschied )


GTX 2080 / 1180 ist also ca 20-30% besser als die GTX 1080 ti

Lederjacke meinte, man könne so Mai - Juli 2018 wieder mit neuen Gaming-Karten rechnen. Legt man die Vergangenheit zugrunde, dürfte dann eine kolportierte 2080TI dann ab April - Juni 2019 das Licht der Welt erblicken. Sprich immer knapp 2 Jahre und erfreulicherweise leistungstechnisch unabhängig von der Konkurrenz (im Gegensatz zum CPU Markt). Leidlich dürfte nur das Preisniveau sein, dass wohl mindestens gehalten wird...
 
ich lese immer was von ordentlich portiert woher kommt das ? würde gern sehen wo es schlechter ist als auf konsole .....

es läuft doch soweit sehr gut natürlich hier und da bugs aber immerhin höhere auflösung bzw. fixe auflösung und mehr frames als konsole
 
Naja es muss ja nicht immer irgendwer gegen irgendwen antreten bei nem Benchmark. Reicht doch zusehen welches System wie gut performt.
Allerdings würde ich es angesichts der Tatsache, dass Spiele heute großteils unfertig auf den Markt kommen, lieber sehen, wenn man mit solchen Tests etwas wartet bzw. zumindest dann nochmal nachtestet wenn die ersten groben Bugs von den Entwicklern behoben wurden.
Das betrifft vor allem recht häufig Portierungen von den Konsolen. Bestes Beispiel hierfür wohl Batman Arkham Knight von vor zwei Jahren.
Ich meine es ist ja wichtig frühzeitig zu testen, damit die Early-Adopter wissen was sie erwartet, aber es macht durchaus mehr Sinn für die Mehrheit wenn Benchmark Resultate erst dann ermittelt werden wenn die Performance auch mehr oder minder final ist. Ich erwarte hier im Fall von Mittelerde zwar keinen großen Fortschritt - gab es beim Vorgänger ja auch nicht - bei Forza hingegen durchaus, auch nach dem Treiber-Update von NVidia.
 
rob- schrieb:
Für was ist der Artikel nun gut? AMD vs Nvidia? Intel vs Ryzen?
Wenn man schon vergleicht, dann bitte mit ordentlich portierten Spielen.

Beim letzten Vergleich dieser Art (Forza7) ist Nvidia nach Release eines neuen Treibers AMD wieder davongezogen...sinnlos solche Bug Games als Referenz zu nehmen, wo sich dann beim nächsten Treiber wieder alles ändert.

Im diesem Fall hat man aber abgewartet, bis sowohl Nvidia als auch AMD ihre angepassten Treiber für das Spiel released haben.

Und bei Forza 7 ist auch Nvidia mit dem neuen Treiber AMD nicht davongezogen, eine 1080 ist, außer in 4K, immer noch hinter der Vega64, nur nicht mehr so deutlich und bleibt auch in 1080p nur gleichauf mit Vega56
 
rob- schrieb:
Für was ist der Artikel nun gut?

Eine Entscheidungshilfe ob die bisherige Hardware reicht und wenn nicht kann man schauen welche Hardware zur Aufrüstung in Frage kommt?

Man mag es kaum glauben aber es gibt heute doch tatsächlich Leute die nicht die Katze im Sack kaufen wollen.
 
Aus dem Artikel...

Das Optionsmenü bietet viel an und ist gut gelungen

Eine durchweg gute Arbeit hat Monolith auch beim Grafikoptionsmenü abgeliefert. Es ist umfangreich und bleibt dabei übersichtlich, sodass sich die Optik sehr genau an die eigenen Wünsche anpassen lässt.

Besonders das "durchweg gute Arbeit" kann ich ehrlich gesagt bei einem Spiel, das standardmäßig nur einen FoV Wert von 60 bietet und keinerlei Möglichkeit dies durch in-game Mittel zu ändern, schwer nachvollziehen. Anno 2017 sollte es verpflichtender Standard sein, in der PC-Version einen FoV-Slider anzubieten.

Leider lässt sich das FoV auch nicht leicht per Editing anpassen. Dafür muss man zu härteren Mitteln greifen. Es gibt inzwischen eine FoV Mod, die aber die CheatEngine voraussetzt und Fehlalarme des Antivirenprogramms auslösen kann, da hier die FoV Werte direkt in den Speicher "injiziert" werden müssen.

Neben den unsäglichen Mikrotransaktionen für mich persönlich ein weiteres K.O. Kriterium. Es scheint mir in Anbetracht solcher Nachlässigkeiten und des merkwürdigen Speichermanagements doch sehr offensichtlich, dass es sich bei SoW um einen mittelprächtigen Konsolenport handelt, bei dem sich der Entwickler in Sachen PC-Optimierung -wie leider mittlerweile üblich- keine größere Mühe gegeben hat.
 
Fov 60 :o

FOV Sickness Olé.

Zumindest für Leute wie mich, die nicht damit klar kommen...

Ich habe das Spiel soeben von meiner Shortlist gestrichen.
 
Zuletzt bearbeitet von einem Moderator:
weshalb Sickness? Findet ihr den Wert zu hoch oder zu niedrig? Ich würde es nur gerne verstehen :-)
Das meine ich auch völlig wertfrei.
 
Palmdale schrieb:
Lederjacke meinte, man könne so Mai - Juli 2018 wieder mit neuen Gaming-Karten rechnen. Legt man die Vergangenheit zugrunde, dürfte dann eine kolportierte 2080TI dann ab April - Juni 2019 das Licht der Welt erblicken. Sprich immer knapp 2 Jahre und erfreulicherweise leistungstechnisch unabhängig von der Konkurrenz (im Gegensatz zum CPU Markt). Leidlich dürfte nur das Preisniveau sein, dass wohl mindestens gehalten wird...
Wer ist Lederjacke?
 
knoxxi schrieb:
weshalb Sickness? Findet ihr den Wert zu hoch oder zu niedrig? Ich würde es nur gerne verstehen :-)
Das meine ich auch völlig wertfrei.

Wenn das FOV sehr eingeschränkt ist, ist das Blickfeld unnatürlich klein. Daher reagieren manche Gamer darauf mit Übelkeit etc. Das Gehirn geht insbesondere bei Shootern davon aus das sich der Spieler im Game befindet. Da das menschliche Blickfeld weitaus größer als 60 Grad ist, wird so manch einem schlecht weil die Bewegungen auf dem Schirm nicht natürlich sind.

Ich habe dies das erste Mal mit den Farcry Games erlebt, die per default mit FOV 70 laufen. Nach 20 Minuten habe ich mich einfach beschissen gefühlt. In diversen Foren hatten sich Leute beschwert und die Lösung war dann tatsächlich das FOV auf 85 hoch zu drehen.

Die meisten Spiele laufen mit einem FOV von 80 bis 85, was eher dem natürlichen Blickfeld entspricht. So mancher stellt das FOV auf 95, was bereits einen leichten Fisheye Effekt zur Folge hat.

Interessant daran ist das dieser Effekt meistens nur bei FPS Games auftritt und nicht bei Third Person Games, weil der Avatar anscheinend dem Gehirn suggeriert das man zuschaut und nicht selber in Bewegung ist.

Mehr dazu hier:

www.howtogeek.com/241285/why-video-games-make-you-feel-sick-and-what-you-can-do-about-it/
 
Langsam sollte CB sich einmal größere Bildschirme kaufen. Es ergibt mathematisch keinen Sinn immer zu schreiben ein Kantenglättungsalgorithmus würde nur unter bestimmten Auflösungen Unschärfe erzeugen. Das belegt höchstens einen zu kleinen Monitor oder schlechte Augen.
Iat das gleiche wie zu behaupten das ab UHD kein AA mehr benötigt wird
 
@tek9: Ok danke für die Ausführliche Antwort. Damit kann ich was anfangen und dir in allen belangen Recht geben. Der Blick, wie durch eine Taucherbrille, ist grauenhaft.
 
Also das mit den 8gig vram scheint eine dreiste Lüge zu sein um neue Grakas zu verkaufen.
Hab das gestern mal ausgiebig mit meiner 980 ti getestet. Alles ultra @fhd 80-100 fps.
Ultra @wqhd 60-80fps ca.
Ultra @4k 30-40fps.
Keine mikrorukler oder sonstiges.
Hab das auch nur gemacht weil ein bekannter von mir der auch ne 980ti hat, durch die Benchmarks dieses games seine Karte am liebsten gg ne 1070 eintauschen wollte, wovon ich abgeraten hab.
Kp wie das mit karten wie der 1060 aussieht die ja auch nur 6gig hat, aber ich habe mich schon totgelacht als ich in den Configs die texturen von high auf ultra gestellt habe und der vram Balken von 3,3 auf 8gig geschnellt ist.
Naja zumindest in meinem Fall habe ich mit meiner Skepsis recht behalten 6gig vram reichen für alles. Limitiert nen scheiß. Peace
 
Dieser neue VRAM Trend, gefällt mir ganz und gar nicht.

Spiele wie Witcher 3 brauchten kaum 3-4GB Vram und jetzt auf einmal braucht man schon 8GB um die Texturen zu haben die am besten aussehen?

Und dieser Trend startete seit Nvidia 970GTX Vram so viel wind gemacht hat.

Nvidia rüstet auf mit 8GB Vram ab 1070 und jetzt brauchen neue spiele plötlich 8GB VRAM die NVIDIA Game Works benutzen?
 
Stell halt einfach in den Optionen die Texturen eine Stufe zurück, dann reichen 4GB. Die Texturen sehen dann halt wieder nur noch so wie im Witcher 3 aus ;-)

Ich finds gut das es zumindest die Option auf noch bessere Texturen gibt. Auch wenn meine aktuelle Grafikkarte auch nur 4GB hat, aber die ist leider eh grad am verrecken... die nächste wird definitiv mehr haben.
 
Mir wurde bei der Zusammenstellung eines neuen Gaming Rechners aufgrund der Langlebigkeit (mindestens 3-4 Jahre) zur GTX 1080 geraten. Wenn aber doch bereits jetzt in 2017 ein Spiel die 8GB Speicher ausnutzt, ist die 1080 dann nicht schon viel schneller nicht mehr zeitgemäß oder ist Mittelerde einfach etwas besonderes?

Ich bin ein wenig verunsichert.

Danke schon mal
 
Nur weil die Spiele jetzt 8GB nutzen muss es nicht sein dass es demnächst noch viel mehr wird. Das ging eigentlich bisher eher in Stufen hoch, die 8GB werden wohl ne Zeit lang das nächste Niveau sein. Aktuell gibt es ja auch kaum Grafikkarten die mehr haben (eigentlich nur 1080Ti und TitanX, diese Topmodelle werden aber nicht so schnell Verbreitung finden) Und selbst wenn mal ein Spiel kommt das mehr will kann man es über die Optionen ja normalerweise runter regeln.
 
Zurück
Oben