News Total War Attila: 12 Grafikkarten im Benchmark

Dass der FX 8370 bei beiden Karten gleich schnell ist, kann natürlich viele Ursachen haben. Z.B. dass nVidia den Code primär für Intel CPUs anpasst. Oder dass du einfach recht hast.

Aber gut, weder das kann man in irgend einer Form belegen, noch dass im Computerbase Bench ein vollständiges CPU limit vorliegt. Dazu bräuchte man deutlich mehr Infos, wie z.B. den Verlauf der GPU Auslastung sowie den Verlauf der Auslastung der einzelnen kerne. Dann kann man sagen was Sache ist.


Aber meine Behauptungen sind auch nicht willkürlich. Es gab in den letzten Wochen und Monaten genügend Beispiele, in denen nVidia im CPU limit (deutlich) schneller unterwegs war (720p).
 
Gorby schrieb:
Viele Dank für den Test! Sehr interessant...

@ Wolfgang
Vllt. auch eine Überlegung wert, dieses Spiel in den nächsten CPU/Grafikkartentestparcour einzubauen. Wird doch gerade eh ein neuer gemacht, wenn ich das richtig mitbekomen habe^^

Davon rede und schreibe ich hier ja schon seit gefühlten 20 Jahren, aber da gab es im Forum nie eine Antwort.
Dafür freue ich mich jetzt doch etwas, daß auch mal die Totalwarreihe berücksichtigt wird.
Bitte weiter so!
Ergänzung ()

pipip schrieb:
...Auch wenn das Spiel weder im Programm von NV oder AMD ist, erinnere ich mich, dass hier auch Intel oft mit den Entwickler zusammengearbeitet hatte und das betrifft auch die IGP nicht nur die CPU.
Das war bei Shogun II schon und bei Rome 2 gab es damals groß Werbung für neue Features der Intel IGP...
Leider nö, bei Shogun II hatte der Entwickler (für die Grafikkartenunterstützung) eng mit AMD zusammen gearbeitet.
Der Entwickler brachte es alleine leider nicht auf die Reihe, das ist ja alles kein Probs, wenn da die Graka-Besitzer von Nvidia nicht so leiden müßten, diese hatten etwas das Nachsehen bei der Performence.
 
smilefaker schrieb:
Ich finde es schon albern, sich ein einziges Beispiel herauszupicken wo die GTX 980 weniger V-ram verbrät wie eine r9 290x.
DAs es andersherum bei anderen Titeln auch vorkommt wissen wir ebenso.

Ich habe doch den PCGH-Test zur 970-RAM-Problematik verlinkt. Dort braucht die R9 290 etwas weniger. Ich habe also nicht nur ein einziges beispiel rausgepickt. Leidest du wieder an selektiver Wahrnehmung?
 
kisser schrieb:
ch habe doch den PCGH-Test zur 970-RAM-Problematik verlinkt. Dort braucht die R9 290 etwas weniger. Ich habe also nicht nur ein einziges beispiel rausgepickt. Leidest du wieder an selektiver Wahrnehmung?

Du möchtest untersuchen, ob die Nvidiakarten sparsamer in den Spielen mit dem V-ram sind, als AMD?
Wir haben doch jetzt schon einige Beispiele gesehen, dass dem nicht so ist, unter anderem hier in den Tests, bei PCGH und bei HWL.
 
Volker schrieb:
Rome 2 ist doch schon ne ganze Weile im Benchmarkparcours! Nicht nur bei den aktuellen Tests wie GTX 960 usw, auch schon im Sommer letzten Jahres. Und wie man sieht lief auch das schon bescheiden :) https://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/3/#diagramm-rome-2-1920-1080
Jup, das hat mich damals auch echt gefreut, dass das aufgenommen wurde :)

Das es bescheiden läuft ist meiner Meinung nach auch kein Grund es nicht in den Parcour aufzunehmen, sondern eher ein Grund dafür. Schließlich interessierts mich nicht, ob ich in einem "alten" Game 140 oder 180 FPS hab :D
 
Laggy.NET schrieb:
Man sieht doch sehr schön, dass mit sinkender Kern Anzahl und gerigerem Takt auch die FPS deutlich zurück gehen. Also liegt sowohl bei nVidia als auch bei AMD ein CPU limit vor (zumindest im CPU benchmark!)



Und wenn ich vergleiche:

R9 290X:
i7 4770K @ 3,5 GHz = 46,2 FPS


GTX 980:
i7 4770K @ 2,5 GHz = 46,3 FPS



dann ist für mich das Ergebnis mehr als eindeutig. Ein GPU limit kann wie gesagt nicht vorliegen, sonst würden die Karten nicht mehr FPS liefern, wenn die CPU Leistung höher ist, als in meinen zwei beispielen.

Und dass AMD etwas getan hat mit den Omega treibern ist mir bewusst. Aber nun sind schon wieder zwei Monate vorbei, währenddessen hat nVidia Titel wie z.B. Dragon Age Inquisition spürbar im CPU limit optimiert (aktuell das einzige Spiel, das ich spiele, zu anderen kann ich nichts sagen), während von AMD gar nichts mehr kommt.
AMD muss wie gesagt mal gas geben!

R9 290X:
i7 4770K @ 2,5 GHz = 41,4 FPS


GTX 980:
i7 4770K @ 2,5 GHz = 46,3 FPS

Und jetzt? Da ist alles beim alten. Die 980 ist etwas schneller. Das nennt man Messgenauigkeit. Niemand merkt zwischen 46 und 42 einen Unterschied...
 
Seltsamer Cpu-Test mit dem FX,
Wenn selbst mein 370K avg. 42 Fps liefert:lol:
 
das die Hersteller momentan großteils mit Intel bez. CPU zusammenarbeiten dürfte außer Frage stehen, da es im Moment von AMD nicht viel Aktuelles(CPUs) gibt


hoffe dieses Game ist zu Beginn nicht ebenso verbuggt wie der Vorgänger...
 
Der Speicherverbrauch liegt auf der Grafikkarte bei 3.430 Megabyte, während sich die GeForce GTX 980 3.434 Megabyte genehmigt. Der „Spitzenreiter“ ist die Radeon R9 290X mit 3.725 Megabyte.

Wie das wohl kommen mag :rolleyes:
Nein, ernsthaft, natürlich ruckelt das Teil nicht wenn man den VRAM Adressraum im Treiber direkt rediziert.
Leider kein unabhängiger Artikel, Benchmarks über 1080p mal wieder komplett außen vor gelassen, wenn auch kurz schriftlich erwähnt & mit Frametimes Diagramm (Stand 09:14 02.18.15).

Mich interessieren vor Allem Auflösungen über 1080p, die ich mit meinem Crossfire Verbund und meinem 4k Monitor darstellen will. Damit gehöre ich zu <1% aller Gamer (Quelle: Steam Statistics), wobei man hier die Zielgruppe, Technikinteressierte, nicht unterschätzen darf.

mfg,
Max
 
Zuletzt bearbeitet:
max_1234 schrieb:
Wie das wohl kommen mag :rolleyes:
Nein, ernsthaft, natürlich ruckelt das Teil nicht wenn man den VRAM Adressraum im Treiber direkt rediziert.
Leider kein unabhängiger Artikel, Benchmarks über 1080p mal wieder komplett außen vor gelassen, wenn auch kurz schriftlich erwähnt & mit Frametimes Diagramm (Stand 09:14 02.18.15).

Mich interessieren vor Allem Auflösungen über 1080p, die ich mit meinem Crossfire Verbund und meinem 4k Monitor darstellen will. Damit gehöre ich zu <1% aller Gamer (Quelle: Steam Statistics), wobei man hier die Zielgruppe, Technikinteressierte, nicht unterschätzen darf.

mfg,
Max

Du nimst mir die Wörter quasi aus dem Mund.
Wort für Wort.
 
Und täglich grüßt das Murmeltier.

Es geht immer weiter, die Grafikkarten werden besser, die Treiber werden besser und die Spiele warten dann mit immer noch höherer Ansprüche an Hardware auf.

Warum können die Spielehersteller sich endlich mal auf mehr Qualität besinnen? Da wird permanent Software entwickelt die dann erst beim Kunden reift.
Bsp: Unity oder Far Cry 4, jetzt nach 3 Monaten und Patch 1.80 läuft das Spiel richtig.
Das das Flimmern nervt hat man doch sicher auch schon vor der Auslieferung des Spiels gewusst oder ?

So langsam mag man sich mit der Thematik nicht mehr beschäftigen. Danke.
 
Hm schade, kein 21:9 3440x1440 Benchmark, gerade solche Spiele sind doch perfekt dafür.
 
@ joel
Ach ja? Ich lese immer nur das jeder Patch es schlimmer macht, auch der 1.8er wieder :lol:: http://www.pcgameshardware.de/Far-Cry-4-PC-256888/News/Patch-180-bringt-Koop-Maps-1150010/

@ Tronx
gäbe es Hardware, die in dieser Auflösung das Spiel auch in vernünftiger Qualität wiedergeben könnte, würde ich dir zustimmen. Mus man wohl noch ein paar Monate warten, bis 1. das Game ein paar Performance-Patches hinter sich hat, 2. die Treiber weiter optimiert sind und 3. die neuen Grafikkarten (R9 300 und Big Maxwell) draußen sind. Dann liefern bestimmt ein paar YouTuber entsprechende Benchmarks ;)
 
Zuletzt bearbeitet:
Ohne Kantenglättung flimmert Total War: Attila wie kaum ein anderes Spiel. Von Gräsern über Bäume bis hin zu Waffen und den gesamten Einheiten flimmert so ziemlich alles im Spiel. Nicht nur in den Zwischensequenzen sondern auch im Spielgeschehen ist dies extrem störend.
Der Titel würde also von einer guten Kantenglättung profitieren – das Spiel bietet sie jedoch nicht.


Halleluja!
Und ich dachte schon ich wäre der einzige der noch Augen im Kopf hat. Das Spiel ist dermaßen hässlich egal welche Einstellung. Dagegen sieht Shogun 2 Fall of the Samurai mit 8xMSAA einfach klasse aus.
Komischerweise schreibt da nur kaum einer was drüber. Alle beurteilen das Spiel usw. aber die Grafik...

Für mich ist das Spiel so weitestgehend unspielbar.
 
Würde mich über SLI/CF Test freuen. Rome:2 hatte da kläglich versagt!
 
Könnte man eventuell noch ein 6 oder 8 Core Haswell mit in den Test nehmen? Wäre interessant ob die gute Kernskalierung bei 4 aufhört oder nicht.
Das wäre dann noch ein System (zwei sinds ohnehin schon) und würde den Aufwand endgültig sprengen. ich verstehe, warum das interessant wäre, aber aktuell lässt sich das nicht sinnvoll umsetzen.

Mh, wäre da nicht auch ein Graka-Test mit MSAA interessant gewesen? Wenn das flimmern so stark ist, ist vielleicht Quality + MSAA die Einstellung der Wahl.
Und lässt sich auch kein SSAA über den Treiber erzwingen? Wäre ne super Möglichkeit das flimmern in den Griff zu bekommen.
MSAA hilft da nicht viel bzw. macht manche Sachen besser und manche schlimmer (siehe Text).
SSAA würde natürlich helfen und auch funktionieren, doch wo sollte die nötige Leistung dafür herkommen?

Warum bei GPU-Empfehlung "1920x1080 extrem-Preset" überhaupt GPUs genannt werden ab denen das Spiel gut spielbar sein soll will mir nicht in den Kopf, behauptet Ihr doch es würde bei 290x, 980 und 970 ruckeln...
Da war die Formulierung nicht perfekt - ist angepasst :)

Könntet ihr iin den beiden oberen orangenen Diagrammen nicht eine Vereinheitlichung vornehmen? So kommen mir beide Karten in etwa gleich schnell vor, da beide bei ihren jeweiligen 100% beginnen. Sozusagen eine x-Achse für beide Karten.
Das ist absichtlich so gewählt, da es hier nicht um AMD vs. Nvidia gehen soll (zumindest nicht direkt), sondern wirklich rein um die CPU-SKalierung. Und ich denke, die sieht man so besser.

Wo sind die 2560x1600 Benchmarks? Frametimes gebt ihr an aber keine Benchmarks?
Steht alles im Text. Wir haben keine Benchmarks in 2.560 gemacht. Für die Frametimes war es ein "special" Test. Es gibt einfach keine Grafikkarte, die das Spiel in 2.560 richtig stemmen kann. Man müsste die Details noch weiter runterstellen.

Von übermäßigem Filmmern hab ich in keinem anderen Test was gelesen? Komisch Sicher, dass es nicht an eurem System lag?
Ja, unser System stimmt.Vielleicht sinds die anderen Redakteure auch schon so sehr von den Vorgängern gewohnt:D Die flimmerten auch schon toll.

Vllt. auch eine Überlegung wert, dieses Spiel in den nächsten CPU/Grafikkartentestparcour einzubauen. Wird doch gerade eh ein neuer gemacht, wenn ich das richtig mitbekomen habe
So sieht mein Plan auch aktuell aus :)

Finde den CPU Skalieurngsbench sehr bescheiden, nur 2 CPU´s werden hier getestet, und es wird, um es vorsichtig aus zu drücken, sehr Intelorientiert gebencht. Während die Intel i7 4770 CPU mit unterschiedlichen Taktraten, incl. OC gebencht wird, wird bei der AMD FX 8350 CPU einfach nichts unternommen, kein OC. -Damit die CPU in der Tabelle wohl schön ganz unten auch bleibt und wohl Intel i7 4700 auf gar keinen Fall kurz überholt.
Auch mit OC reißt der AMD-Prozessor keine Bäume mehr aus :)
Die AMD-CPU ist auf Wunsch vieler Leser im Parcours drin und alleine der eine Durchlauf benötigt schon gut Zeit (spiel installieren etc.). Noch mehr damit zu machen würde einfach jeglichen Rahmen sprengen.

Davon rede und schreibe ich hier ja schon seit gefühlten 20 Jahren, aber da gab es im Forum nie eine Antwort.
Dafür freue ich mich jetzt doch etwas, daß auch mal die Totalwarreihe berücksichtigt wird.
Hö, tun wir jetzt doch auch schon? Rome 2 testen wir doch bei Grafikkarten.
 
Super Praxistest - Danke.

Bin mal gespannt wie die neue Grakageneration abschneiden wird - so sie denn releast ist.
 
Moselbär schrieb:
Super Praxistest - Danke.

Bin mal gespannt wie die neue Grakageneration abschneiden wird - so sie denn releast ist.

Das Problem ist mMn aber weniger die Leistung. Eher ob es CA irgendwie schafft ein vernünftiges AA auf die Beine zu stellen. Weil sebst mit höchsten Einstellungen und 40+ Frames wird das Spiel zwar flüssig, aber weiterhin häßlich bleiben. mMn.
 
smilefaker schrieb:
Du möchtest untersuchen, ob die Nvidiakarten sparsamer in den Spielen mit dem V-ram sind, als AMD?

Nein, es geht um eine allgemeine Untersuchung, welcher Titel auf welcher Karte wieviel VRAM nutzt.
Der hier im Forum oben angepinnte Thread "VRAM Usage aktueller Titel": https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/
ist nämlich Quatsch. Die Speicherbelegung hängt nämlich von GPU, Treiber und dem Speicherausbau der Karten ab.
Das gilt übrigens auch ganz allgemein für die Hauptspeicherbelegung von Anwendungen.
 
Zurück
Oben