News Total War Attila: 12 Grafikkarten im Benchmark

zeromaster schrieb:
An welcher Stelle im Test liest du das denn heraus?
Dadurch dass die 970 deutlicher einbricht, als die 780Ti, die 980 und auch die AMD Karte. Je höher desto größer die Einbußen. Hier sieht man deutlich, dass die Kastration doch sehr stark ist. Damit meine ich nicht die Anbindung an den Speicher, sondern das Gesamtprodukt mit der geringen Anzahl Shader, der Anbindung und alles was zur Karte gehört.

kisser schrieb:
Du kannst den Speicherverbrauch verschiedener GPUs nicht miteinander vergleichen, weil der im Grafikram abgelegte Shadercode chipspezifisch ist und die Speicherverwaltung im Treiber auch noch vom vorhandenen Grafikram abhängt.

Wie man hier sieht reichen der GTX 980 "nur" etwa 3,4GB, wo die R9 290 über 3,7GB braucht.

Leider hat in dem VRAM-Skandal um die GTX970 niemand getestet, ob die echten 4GB einer R9 290 effektiv auch wirklich mehr bringen.
Interessante Sache. Also ist bei dem geringen Verbrauch anzunehmen, dass die Titan 1 trotz mehr Speicher nur so schnell bleibt wie die 780Ti und keine Vorteile hat? Auch interessant ist ja die Frage, was macht die Anzahl der Shader aus? Da die 780Ti auf einmal deutlich über der 970 liegt, hier sind ja auch deutlich mehr Shader am Werk.

MPQ schrieb:
Warum skalieren AMDs Karten häufig so gut? Über FullHD ist die 290X in vielen Games mit der GTX 980 gleichauf.
Bei den geringen Frames müßte man eher sagen, die 980 bricht auf der hohen Anforderung auf das Niveau einer 290 ein :freak:
 
Wäre interessant ob die gute Kernskalierung bei 4 aufhört oder nicht.
20% mehr Leistung durch 100% mehr Kerne und Leistungsverlust durch SMT ist keine gute Kernskalierung, sondern eine absolute Katastrophe. Das funktioniert bei jedem popeligen Call of Duty besser, und da wäre es nicht einmal nötig.

Laut GameGPU bringt auch der Achtkerner nichts. Naja, entspricht dem gewohnten Bild.
 
Zuletzt bearbeitet:
smilefaker schrieb:
Weil die AMD Karten eine hohe Rechenleistung haben? Ich wette in 2560x1600 liegt die r9 290x gleichauf mit einer GTX 980.;)

Also ich hätte ganz gern endlich die Benchmarks.
Bisher habt ihr auch immer mindestens die nächsthöhere Auflösung getestet.

Ganz interessant ist auch das Abschneiden einer r9 285.
Man rechne hier noch weiteren V-ram drauf, weiteren Takt und weitere Shader und die Karte liegt auf dem Niveau einer GTX 970/r9 290x.

lt. CB:
In der höheren Auflösung von 2.560 × 1.600 geht AMD erneut als Sieger vom Platz.

Je mehr Qualität und Pixel, desto besser macht sich der 290X und überholt die teure Only-FHD-Karte GTX980. Es müssen dennoch von beiden Seiten bessere Treiber her, damit u.A. die 970 ja nicht mehr als 3,5GB sich gönnt :p

Dennoch nicht Nett von CB, das nicht als Dia zu präsentieren.
 
Sehr guter Test, aber die bekommen von mir nach ROME 2 keinen Cent mehr.
 
Interessant wäre auch in die Tabelle der CPU Benchmarks den i7 4770K@4,4ghz ohne HT mit zu testen. Würd mich interessieren wie der ohne HT mit dem Takt zu den getesteten Spielen agiert.
 
Man könnte auch endlich mal einführen, wieviel Mhz bei den jeweiligen Karten anliegen, auch wenn es nur die Ref. Taktzahlen sind. Hat ja nicht jeder alle Zahlen im Kopf.
 
|SoulReaver| schrieb:
Sehr guter Test, aber die bekommen von mir nach ROME 2 keinen Cent mehr.

Genau auch mein Gedanke. Das als Vollpreis-Spiel für 40 Euro ist auch ne Frechheit. Das ist nen Addon und nicht mehr.
 
SoDaTierchen schrieb:
@kisser: Wie willst den den "VRAM-Skandal" denn testen, wenn die Grafikkarte und der Treiber der GTX 970 verhindern, dass die VRAM-Auslastung >3,5GB gehen?

Es ist doch gar nicht bekannt, ab wann der Treiber da eingreift.
Auch unterhalb von 3,5GB belegen 970 und 980 nicht die gleiche Menge an VRAM, die 970 belegt teils deutlich weniger. Warum?
Es ist auch (bis auf wenige Fälle, siehe z.B PCGH-Test: http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Specials/zu-wenig-VRAM-1149056/ ) nicht bekannt, wie sich R9 290 und GTX 980 bei gleichen Einstellungen eines Spiels bzgl. des genutzten RAM verhalten.


smilefaker schrieb:
Das ist doch albern ein solcher Test.
Der AMD Treiber kann sich in diesem Game auch mehr V-ram nehmen.

Die GTX 980 kann das auch, sie tut es dennoch nicht. Warum? Das ist eine technische Frage und damit alles andere als albern.
 
Zuletzt bearbeitet:
Finde den CPU Skalieurngsbench sehr bescheiden, nur 2 CPU´s werden hier getestet, und es wird, um es vorsichtig aus zu drücken, sehr Intelorientiert gebencht. Während die Intel i7 4770 CPU mit unterschiedlichen Taktraten, incl. OC gebencht wird, wird bei der AMD FX 8350 CPU einfach nichts unternommen, kein OC. -Damit die CPU in der Tabelle wohl schön ganz unten auch bleibt und wohl Intel i7 4700 auf gar keinen Fall kurz überholt. -Mich würde ebenso bei der FX 8350 CPU die Takt Skalierung Interessieren.

Wolfgang schrieb:
Von Hyper-Threading kann das Spiel zwar nicht profitieren, die Anzahl der CPU-Kerne spielt jedoch eine wichtige Rolle. Vier anstatt zwei Kerne resultieren in einer Mehrleistung von 22 Prozent auf der AMD-Grafikkarte und 20 Prozent auf dem Nvidia-Pendant. Die langsamste CPU-Konstellation im Testfeld ist AMDs FX-8370, der sich knapp der Zwei-Kern-CPU von Intel mit 3,5 GHz geschlagen geben muss.

-Von einer guten Skalierung (20 bzw. 22%) zwei Kerne, gegenüber 4 Kernen kann eigentlich nicht wirklich die Rede sein mMn. -Vor allem wenn die FX 8350 von einer Intel Dual Core (mal wieder) geschlagen wird. :)
-Außerdem fehlt mir in der Tabelle die besagte zwei Kern CPU von Intel, die die FX 8350 CPU schlägt, wenn man diese schon testet und erwähnt.
 
Zuletzt bearbeitet:
Manche haben den Test wohl nicht genau gelesen.

"Im Extreme-Preset muss Nvidia dann ein wenig Federn lassen. Zwar ist die GeForce GTX 980 immer noch unangefochten an der Spitze, doch holen alle AMD-Grafikkarten etwas auf. Die Radeon R9 290X ist minimal vor der GeForce GTX 970, die Radeon R9 290 rückt an die GeForce GTX 780 heran und die Radeon R9 280X überholt die GeForce GTX 770. Gut spielbar ist Total War: Attila in diesem Preset auf der GeForce GTX 980 und der GeForce GTX 780 Ti, wobei selbst diese Karten keine 40 FPS erreichen. Die Radeon R9 290X liegt durchschnittlich bei knapp 35 FPS – je nach Szene RUCKELT es spürbar. Für das Quality-Preset reicht das untere High-End- bis Performance-Segment der letzten Generation."


"Höhere Auflösungen als Full HD wie 2.560 × 1.440 sind in Total War: Attila derzeit schwer umzusetzen. In der höheren Auflösungen mitsamt Quality-Preset bewegen sich die Frameraten auf dem Niveau des Extreme-Presets unter Full HD – KAUM SPIELBAR. Entsprechend muss die Detailstufe weiter reduziert werden, was größere Einflüsse auf die Grafikqualität hat."


Es spielt gar keine Rolle ob man nun eine 970 oder eine 290x hat.
Ausserdem sind wir wieder mal einen Schritt weiter wie "Zukunftsicher" die aktuellen Karten sind.
Einer "echten" 4GB Karte geht nämlich genauso schnell die Puste aus. Und wer auch in Zukunft weiter auf max spielen will, braucht dann wieder eine neue Karte.
 
Und schon wieder ist nVidia im CPU Limit schneller.

Danke dass ihr auch genau sowas mitbencht. CPU Benchmark einmal mit nVidia und einmal mit AMD. Diesen Nachteil muss man sich einfach mal bewusst werden. All die Jahre zuvor wurde darauf nie geachtet. AMD sollte da endlich mal mehr tun.

In dem Game hier muss man, wie man sieht die CPU mit ner AMD Karte im Rechner um 1 GHz höher takten, damit man auf die Performance kommt, die man mit ner nVidia im CPU limit hätte. Das muss man sich mal auf der Zunge zergehen lassen.

Meiner Meinung nach ist sowas einfach nicht akzeptabel.
Da wird mal eben das Performance Plus von 1 GHz in Luft aufgelöst.
 
Laggy.NET schrieb:
Und schon wieder ist nVidia im CPU Limit schneller.

Danke dass ihr auch genau sowas mitbencht. CPU Benchmark einmal mit nVidia und einmal mit AMD. Diesen Nachteil muss man sich einfach mal bewusst werden. All die Jahre zuvor wurde darauf nie geachtet. AMD sollte da endlich mal mehr tun.

Wenn man sich den Test ansieht, kann man nicht zu dem Fazit kommen.
Denn die R9 290x und die GTX 980 liegen mit einer langsameren CPU, dem FX-8370 gleichauf.
DAs zeigt, dass es im nahen CPU Limit keine Unterschiede gibt.

Und AMD hat sehr wohl etwas getan, siehe Call of Duty oder Assassins Creed.

Und dass die LImits gleich verteilt sind, sieht man wenn man sich den i7 @ 3,5ghz zu 4,4ghz ansieht.
Beide Karten profitieren um 10%. Die r9 290x müsste deutlich mehr profitieren, wenn sie im CPU Limit sitzen würde.:rolleyes:

kisser schrieb:
Die GTX 980 kann das auch, sie tut es dennoch nicht. Warum? Das ist eine technische Frage und damit alles andere als albern.

Ich finde es schon albern, sich ein einziges Beispiel herauszupicken wo die GTX 980 weniger V-ram verbrät wie eine r9 290x.
DAs es andersherum bei anderen Titeln auch vorkommt wissen wir ebenso.
 
Zuletzt bearbeitet:
smilefaker schrieb:
Wenn man sich den Test ansieht, kann man nicht zu dem Fazit kommen.
Denn die R9 290x und die GTX 980 liegen mit einer langsameren CPU, dem FX-8370 gleichauf.
DAs zeigt, dass es im nahen CPU Limit keine Unterschiede gibt.

Und AMD hat sehr wohl etwas getan, siehe Call of Duty oder Assassins Creed.

Und dass die LImits gleich verteilt sind, sieht man wenn man sich den i7 @ 3,5ghz zu 4,4ghz ansieht.
Beide Karten profitieren um 10%. Die r9 290x müsste deutlich mehr profitieren, wenn sie im CPU Limit sitzen würde.:rolleyes:


Man sieht doch sehr schön, dass mit sinkender Kern Anzahl und gerigerem Takt auch die FPS deutlich zurück gehen. Also liegt sowohl bei nVidia als auch bei AMD ein CPU limit vor (zumindest im CPU benchmark!)



Und wenn ich vergleiche:

R9 290X:
i7 4770K @ 3,5 GHz = 46,2 FPS


GTX 980:
i7 4770K @ 2,5 GHz = 46,3 FPS



dann ist für mich das Ergebnis mehr als eindeutig. Ein GPU limit kann wie gesagt nicht vorliegen, sonst würden die Karten nicht mehr FPS liefern, wenn die CPU Leistung höher ist, als in meinen zwei beispielen.

Und dass AMD etwas getan hat mit den Omega treibern ist mir bewusst. Aber nun sind schon wieder zwei Monate vorbei, währenddessen hat nVidia Titel wie z.B. Dragon Age Inquisition spürbar im CPU limit optimiert (aktuell das einzige Spiel, das ich spiele, zu anderen kann ich nichts sagen), während von AMD gar nichts mehr kommt.
AMD muss wie gesagt mal gas geben!
 
Also dass das Spiel besser auf Intel läuft wundert mich wenig. Arbeitet ja Intel oft mit den Entwickler zusammen. Auch wenn das Spiel weder im Programm von NV oder AMD ist, erinnere ich mich, dass hier auch Intel oft mit den Entwickler zusammengearbeitet hatte und das betrifft auch die IGP nicht nur die CPU.
Das war bei Shogun II schon und bei Rome 2 gab es damals groß Werbung für neue Features der Intel IGP.

Ich könnte mir gut vorstellen, dass ein FX 6300 oder ein FX 4300 nicht unwesentlich langsamer als der FX 8350 ist.

Laggy.NET
Kannst du mir bitte mal den Link schicken, wo AMD bestätigt hat, dass der zweite OMEGA Patch nicht mehr kommen wird ?

chris333
Nagut, die total War Reihe ist und bleibt ein Speicherfresser :D Ich erinnere mich an Rome2, da war der Speicher egal wie groß gleich voll :D Da hat man ja schon mit 2GB damals gleich einen vollen Speicher gehabt :D
 
Zuletzt bearbeitet:
@pipip

Ach mensch, du verstehst mich wie immer falsch. Ich sage nicht, dass in zukunft nichts mehr kommt, ich meine nur, dass seit zwei Monaten nichts mehr kommt bzw. gekommen ist. In diesem Zeitraum hat nVidia 2 (oder warens 3) neue WHQL Treiber gebracht. Der aktuellste AMD Treiber ist vom 9. Dezember 2014.

Während nVidia immer weiter optimiert und das teils spürbar, ist von AMD nichts gekommen. Sorry, aber ich finds einfach schwach. Meine Meinung. Für mich war die Treibergeschichte und gerade die performance im CPU limit der Hauptgrund, warum ich meine eigentlich noch gute HD7950 aus dem Rechner geworfen habe. Ich habs immer geahnt, dass da was nicht stimmen kann und seit anfang des Jahres werde ich wöchentlich aufs neue bestätigt. Ist nunmal so und ich finds schade. War lange AMD user....
 
Zuletzt bearbeitet von einem Moderator:
Laggy.NET schrieb:
Man sieht doch sehr schön, dass mit sinkender Kern Anzahl und gerigerem Takt auch die FPS deutlich zurück gehen. Also liegt sowohl bei nVidia als auch bei AMD ein CPU limit vor (zumindest im CPU benchmark!)



Und wenn ich vergleiche:

R9 290X:
i7 4770K @ 3,5 GHz = 46,2 FPS


GTX 980:
i7 4770K @ 2,5 GHz = 46,3 FPS



dann ist für mich das Ergebnis mehr als eindeutig

Nein weil eine GTX 980 so ziemlich bei jedem Messergebnis der CPU 10% in Front ist, außer bei einem FX-8370, dort ist die GTX 980 gar nicht schneller wie die AMD Karte, was eher für die AMD Karte spricht.
Es gibt kein absolutes CPU und GPU Limit, sondern nur Annäherungsbereiche.

Du vergisst dass die GTX 980 ca 12% schneller ist, in jedem Setting.

Während nVidia immer weiter optimiert und das teils spürbar, ist von AMD nichts gekommen. Sorry, aber ich finds einfach schwach. Meine Meinung.

Wo soll das denn der Fall sein bitte?
Die Skalierung zeigt eindeutig, dass bei AMD das CPU Limit nicht früher kommt, sondern in jedem Setting der Zuwachs mit dem von der Nvidia GPU fast absolut identisch ist.
Die Nvidia GPU ist schneller, daher zeigt sie bei den unterschiedlichen Taktraten der CPU auch höhere Ergebnisse.

Du wirst doch dem Test wohl noch entnehmen können, dass es der Engine scheinbar recht wurst ist, ob die CPU mit 2,5ghz taktet oder mit 3,5, das macht nur 10% Unterschied, trotz 40% mehr Takt.
 
Zuletzt bearbeitet:
Mich hätte interessiert, wie das Game ohne AA aber mit VSR und DSR im Vergleich aussehen würde und wie dann die Performance aussehen würde.
Spiele eigentlich aktuell meist mit VSR aber ohne oder leichtes AA und bin bis dahin recht zufrieden.
 
smilefaker schrieb:
Nein weil eine GTX 980 so ziemlich bei jedem Messergebnis der CPU 10% in Front ist, außer bei einem FX-8370, dort ist die GTX 980 gar nicht schneller wie die AMD Karte, was eher für die AMD Karte spricht.
Es gibt kein absolutes CPU und GPU Limit, sondern nur Annäherungsbereiche.

Du vergisst dass die GTX 980 ca 12% schneller ist, in jedem Setting.



Wo soll das denn der Fall sein bitte?
Die Skalierung zeigt eindeutig, dass bei AMD das CPU Limit nicht früher kommt, sondern in jedem Setting der Zuwachs mit dem von der Nvidia GPU fast absolut identisch ist.
Die Nvidia GPU ist schneller, daher zeigt sie bei den unterschiedlichen Taktraten der CPU auch höhere Ergebnisse.

Du wirst doch dem Test wohl noch entnehmen können, dass es der Engine scheinbar recht wurst ist, ob die CPU mit 2,5ghz taktet oder mit 3,5, das macht nur 10% Unterschied, trotz 40% mehr Takt.


Ich weis genau, was du meinst. Wenn sich CPU limit und GPU limit innerhalb des Benchmarks ständig abwechseln würden, oder das Spiel nur ganz knapp im CPU limit läuft, würde die höhere Performance der GTX980 das Ergebnis verfälschen. Bei den 50-56 FPS dürfte das sogar der Fall sein.

Aber spätestens ab der hälfte, also ab dem 4770K @ 2,5 GHz @ 4K sollte das CPU limit vollständig eingetreten sein. Ich kann mir beim besten Willen nicht vorstellen, dass dabei noch eine der beiden GPUs bei annähernd 100% Auslastung läuft und daher in irgend einer Form von der GPU Leistung profitieren könnte.
 
Laggy.NET

Also ich bin jetzt kein Experte der Engine, aber was wird eigentlich alles berechnet. Die Kämpfe sind ja geskriptet und vieles wird ja vor der eigentlichen Schlacht geladen. Die Engine profitiert in erster Linie eigentlich von viel CPU und GPU RAM. Naja es gibt eh genug Tests und Reviews ect von der Engine, vllt werde ich mich da mal etwas reinlesen. Viel GPU Performance wird sicherlich auf der Kampangen Karte gefordert, besonders bei den Feldzüge der CPU KI.
 
Wenn es vollständig eingetreten ist, wie erklärst du dir dann dass ein FX 8370 auf einer 290x gleichschnell wie auf einer GTX 980 läuft?
Das ganze ist doch viel zu undurchsichtig und daher kann man nur den Gesamten Kontext betrachten.

Oder wie kann 2,5ghz auf 3,5 10% bringen wenn hier ein CPU Limit vorliegt und bei 3,5ghz zu 4,4ghz bringt es auch 10%, auf beiden Karten?
Man muss ganz klar sagen dass hier kein CPU Limit vorliegt, sondern eher die Engine anders mit untersch. Taktraten umgeht.

Die Behauptung die Nvidia würde besser zurechtkommen scheitert schonmal daran, dass die Nvidia GPU in jedem Setting 10% in Front ist.
Gäbe es also ein eher auftretendes CPU Limit bei AMD, dann müsste die AMD Karte erst mit hohen CPU Taktraten an Fahrt gewinnen und das ist nicht so. Die Performance steigt bei GTX und AMD in einem Graphen mit abfallener Steigung an.

Das spricht ganz klar gegen ein CPU Limit Problem von AMD.
Bei PCGH ist das im Heft recht gut erklärt.
 
Zuletzt bearbeitet:
Zurück
Oben