• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Anno 2205 Benchmarks: Bombastische Grafik braucht richtig Leistung

Ziemlich schwach. Jetzt kann man sich tatsächlich darüber Gedanken machen, warum das Spiel Maxwell scheinbar so sehr liegt. Nai hatte ja schon die Auslastung der Cuda Cores erwähnt. Ob es das ist?
 
Eine GTX960 schneller als eine GTX780 oder eine 290X.
Blue Byte - Manipulation confirmed.

Mir persönlich eigentlich egal, nach 1702 wurde die Reihe sowas von langweilig und austauschbar dass ich fast schon das Kotzen bekomme wenn ich an 1404 oder die futuristischen Ableger denke ...

+++ Wird selbstverständlich nicht gekauft +++

mfg,
Max
 
Zum newsupdate:
Der neue GameReady Treiber hat mal nichts gebracht leistungsmäßig.
Eher immer ein par Bruchteile eines fps weniger, was ja fast nichtmal mehr messbar ist und sicher im Ungenauigkeitsbereich eines Benchmarkdurchlaufes ist ;)

Was also was Anno betrifft eher ein bugfix Treiber oder so.

Bitte mit dem neuen AMD Treiber - wenn verfügbar - ebenfalls testen! Danke! :)
(Und im November kommt sowieso der "neue" Crimson. mal sehen was sich da tut, außer schnellerem Start und besserer/leichterer Bedienung ;)


MfG
 
Ich versteh die Benchmarksettings nie, die Computerbase nimmt.
Warum was in Einstellungen testen, bei denen nur die 5 besten
Karten über 60fps kommen? Welche Aussage wird damit getroffen?
Dass unter einer 400€ Karte kein Vergnügen aufkommt? Ok!

Für mich wäre eher interessant, welche Settings auf mittelklasse
Systemen spielbar sind. So kann kein Mensch wissen, ob und wie
das Spiel bei ihm performt, wenn er kein topaktuelles und teures
System hat. Ich fände es besser, wenn detailliert beschrieben
würde, welche Einstellung wieviel Leistung kostet. Dass man ne
schnelle Graka braucht für dicke Settings, dafür braucht keiner
nen Benchmark, nur gesunden Menschenverstand.

Ich finde solche Tests daher leider praxisfern und wenig nützlich.
Teures System = dolle Grafik. Viel mehr sagt dieser Bericht kaum aus.
Das war aber schon vorher bekannt und ist selten anders.
 
Bei sowas fällt mir eigentlich immer nur das nervige Gedöhns von "Eine 980ti braucht man erst ab 4k, alles andere ist Geldverschwendung" ein.
 
Wolfgang schrieb:
Wir haben Benchmarks mit dem Game-Ready-Treiber GeForce 358.87 durchgeführt. Bringt durchaus ein wenig.

Also ich weiß nicht, das ist ja fast Messungenauigkeit.
Placebo Gamereadytreiber?:(

Was hat denn Nvidia in den Changelogs angegeben?
BUgfixing? Oder den eigentlich gleichen Treiber nochmal released?

Jedenfalls ist der Treiber, wenn man die Leistung von Maxwell sieht, ganz klar kein Gamereadytreiber für die Kepler Karten.
Ich hoffe AMD legt unter sehr hoher Shaderlast nochmal nach, da stimmt doch irgendetwas nicht.
Wieso ist Maxwell genau unter diesen Settings so schnell?
 
Zuletzt bearbeitet:
borizb schrieb:
Ich versteh die Benchmarksettings nie, die Computerbase nimmt.
Warum was in Einstellungen testen, bei denen nur die 5 besten
Karten über 60fps kommen? Welche Aussage wird damit getroffen?
Dass unter einer 400€ Karte kein Vergnügen aufkommt? Ok!

Für mich wäre eher interessant, welche Settings auf mittelklasse
Systemen spielbar sind. So kann kein Mensch wissen, ob und wie
das Spiel bei ihm performt, wenn er kein topaktuelles und teures
System hat. Ich fände es besser, wenn detailliert beschrieben
würde, welche Einstellung wieviel Leistung kostet. Dass man ne
schnelle Graka braucht für dicke Settings, dafür braucht keiner
nen Benchmark, nur gesunden Menschenverstand.

Mein Gedanke. Stimme voll zu.
Ich meine das ältere Karten da zu kämpfen haben werden war doch klar.
Das Normale Hoch & Mittel + Low Preset wären noch intressant gewesen dazu eben die FPS Werte um zu sehen wie sich das verhält, dann könnte man ungefähr sehen ob ein Mittelklasse System das ganze gebacken bekommt @ 60 FPS.
 
UltraWurst schrieb:
"Wahnsinnig viele" ... und über den AMD-Treiber-Support hat sich wahrscheinlich noch nie jemand beschwert, was? :rolleyes:

Ok, jetzt nimm mal bitte für eine Minute den Alu-Hut ab, und zeige mir den Nachweis, daß NVidia an Ubisoft (Bestechungs-)Gelder zahlt.

... lassen hier dann so paranoide Verschwörungstheorien wie du ab.

Du hast doch absolut null Ahnung, wovon du redest.
Hast du schon mal eine fortschrittliche 3D-Engine programmiert und versucht zu optimieren?
Nein. Wahrscheinlich hast du noch nicht einmal vernünftige Benchmarks gemacht, um Leistungsunterschieden bei einigen Spielen auf den Grund zu gehen.
Denn z.T. sind es lediglich einzelne grafische Features, die auf einem bestimmten System abkacken. Und das ganz sicher nicht, weil irgendwer mit Absicht schlecht programmiert hat, sondern weil einfach die Zeit gefehlt hat, es besser zu machen und auf allen Systemen zu testen.

Bei AMD haben Treiber-Beschwerden andere Ursachen, aber es werden nicht absichtlich die Grafikkarten mit älteren Chipsätzen (Kepler) gedrosselt um die neue Serie (Maxwell) besser aussehen zu lassen (um damit mehr Leute künstlich zum Aufrüsten zu animieren ... tja, das lassen sich eben leider nicht alle bieten und spuren gemäß der aktuellen nVidia Doktrin wie die nicht unwesentliche Zahl im nVidia Forum beweist). Vielleicht würde es Dir einmal helfen, Deine rosa nVidia-(Maxwell-)Brille von der Nase zu nehmen ;).

Glaubst Du, dass Ubisoft das öffentlich zugeben/preisgeben würde, wie naiv bist Du eigentlich? Ein Blick auf die meisten Ubisoft Titel jüngerer Vergangenheit reicht da aus, dass nVidia klar (wegen Marktanteil, Zahlung, was weiss ich?) bevorteiligt wird, sonst hätte sich Blue Byte sicherlich mehr Mühe gegeben, nachdem sie so viel Zeit (und Geld) in Spieledetails gesteckt haben, und dafür gesorgt, das ein Großteil der AMD Karten bei Veröffentlichung vernünftig läuft. Mit Sicherheit ist da noch etwas zu optimieren mit Treiber-Updates seitens nVidia für Kepler und seitens AMD für alle Radeons, aber nicht in normalem Maße, wie einseitig und mies das Spiel programmiert worden ist, aber wer so etwas gut heisst und unterstützen will (wie Du?), bitteschön, selber Schuld wenn Du so eine Politik auch noch belohnen möchtest :rolleyes:.

Ja, schon klar, Du bist hier der ausgemachte Experte mit Deinem plumpen Dreikäsehoch-Gequatsche und weisst natürlich alles besser :freak: ... die Benchmarks dieses Spiels und der meisten anderen halbwegs aktuellen zu vergleichen (um das hierbei abartig große Leistungs-Gefälle heraus zu stellen - wobei Karten/Chipsätze ganz anderer Leistungsklassen auf einmal schwächer oder pari stehen - welches nicht alleine auf fehlende Treiberoptimierungen zurück zu führen ist) dürfte doch nicht so schwer/viel verlangt sein, oder? Wenn Du so verklärt bist und es dann immer noch nicht blickst, kann ich Dir leider auch nicht mehr helfen und mit zu wenig Zeit hat das auch nichts zu tun, eine schwächere Ausrede ist Dir wohl nicht eingefallen (wenn man sich anschaut, mit wie viel Liebe zum Detail Blue Byte an der Grafik angeblich gearbeitet, an Zeit um es vernünftig auf allen noch gängigen Karten es gut lauffähig zu machen bei fordernden Einstellungen hat es da wohl kaum gelegen, somit ein ziemlicher Widerspruch eben zu Deiner Vermutung), auch wenn Ubisoft z.T. gerne halbfertiges auf den Markt wirft, wie etwa AC Unity. Ich habe aber leider zu wenig (kostbare) Zeit, um mit Dir weiter darüber zu diskutieren, da es nichts zu bringen scheint, viel Spaß noch (ich hoffe, Du findest jemand anderen, der genug Ahnung für Dich hat ;) ).
 
Chismon schrieb:
die Benchmarks dieses Spiels und der meisten anderen halbwegs aktuellen zu vergleichen dürfte doch nicht so schwer/viel verlangt sein, oder?
Stimmt. Dann mach das doch bitte, um deine Behauptungen zu belegen. Denn die Arbeit nimmt dir keiner ab.
 
Segi55 schrieb:
Nein, das ist nicht logisch, da sich die Situation zwischen den Grafikherstellern immer wieder ändert und auch die AMD Nutzer >30% ( es werden ja nur die aktuell verkauften Karten in Marktanteilen gemessen) das Spiel problemfrei spielen.
Und es sieht ja überhaupt nicht danach aus, dass es am AMD Treiber Overhead liegt, die CPU Messungen sagen das nicht.
Schau doch mal den Test selbst an und ziehe daraus die Schlüsse.

ich hab ja auch nicht gesagt dass es am Overhead liegt, sonst würds vermutlich eher über CPU Leistung skalieren.
Die Situation ändert sich...? Naja, sehr träge wenn du mich fragst und über die letzten Jahre hat AMD hauptsächlich Anteile eingebüst. Für sich ja nich sonderlich tragisch, eine gewisse Dynamik ist normal, dennoch... die CPU Sparte zieht AMD sehr runter, rote Zahlen am laufenden Band und auch die Umsätze bei den GPU brachen richtig ein. Das sind Fakten, keine Mutmaßungen.

Ob es jetzt an fehlenden Zuwendungen gegenüber dem Publisher oder an den Treibern und ausbleibender Optimierung liegt ist prinzipiell egal, es wäre eher verwunderlich wenn AMD bei selber Rohleistung deutlich mehr aus der Karte holen könnte als Nvidia, die eben einfach liquider sind und sich auch mehr Games & Studios "einkaufen" können.

Mir wären 50/50 und schwarze Zahlen bei AMD auch viel lieber... aber Fakten zu übersehen ist auch nicht gerade ...

Frontend war doch ein gutes Schlagwort. Man sieht doch anhand der Sehr Hoch Benches schön das etwas bei AMDs Fiji & kleiner Auflösung limitiert... das hat doch erstmal nichts mit Engine zu tun, viel eher ist es das was AMD mit Oxide und Swarm wie auch Ashes auch bei den Nvidia Karten versucht hat aufzuzeigen, die GPU so auszulasten dass bei der Konkurrenz ein Flaschenhals auftut. Da unterstelle ich bei Anno noch nicht mal Absicht, imho kommen die AMD Karten ja gerade mit 4k und Ultra dann plötzlich wieder super klar (hätte man AMD eins reinwürgen wollen dann hätte es das Setting ja gar nicht gebraucht^^).

Die Schuld is immer schnell auf andere geschoben, in Erster Linie ist es Nvidia, dann der Publisher oder das entwickelnde Studio, vielleicht auch noch MS und zuletzt der Fanboy der immer nur Nvidia kauft... dabei erklären es vermutlich allein die von mir genannten Dinge wie begrenzte Mittel die AMD noch aufwenden kann, Einsparungen.

In meinen Augen muss man auch einfach sehen dass Fiji unter 4K wirklich gut wegkommt, gerade dann wenn die GPU maßgeblich ausgeglichen limitiert wie dem Ultra Setting. Gut möglich dass die Fiji sich in 2 Jahren mit 20 % an der 980 TI vorbeischiebt... die Abstände der R9 290X zur GTX 780 sind heute schon stellenweise ganz ordendlich, genauso die R9 280X zur GTX 770... beides auch ein Stückweit dem VRam geschuldet.

Segi55 schrieb:
Dass ein Spiel in speziellen Settings ( shaderlast hoch) derart langsamer laufen kann ( Kepler und Hawai/Tonga) sieht alles andere nach einem generellen Treiberproblem aus.
Das zeigen die CPU Benchmarks. Selbst ein FX-8370 bringt auf einer Fury X genausoviele FPS wie der schnellste Intel Prozessor.

Und HBM ist teuer, da kann auch ein ATI die nicht jetzt schon anbieten, weils unwirtschaftlich wäre.

Hier ist die Frage ob ein API Limit über die CPU skalieren muss. Interessant wären noch die CPU Verläufe auf allen Kernen dazu. Und ja, spricht so eher für ein Limit auf GPU Seite. Also Hardware. Macht die Sache aber nicht besser oder? Im Gegenteil.
Zudem wäre auch die Auslastung der GPU noch interessant.

Wie würde sich denn hier ein reines API Problem verhalten? Mit der CPU 1:1 skalieren oder deckelt diese unabh. von der GPU Auslastung?
Ergänzung ()

max_1234 schrieb:
Eine GTX960 schneller als eine GTX780 oder eine 290X.
Blue Byte - Manipulation confirmed.

vielleicht gibts ne ganz logische Erklärung für? Schau einfach mal welcher Theoretische Bench ähnliches Verhalten zeigt, zb Texturen / Poly Durchsatz, Tessellation - die Sachen sind doch perfekt um das Verhalten zu zeigen.
Bei den heutigen Treibern weiß man ja auch nicht was die genau machen, vielleicht optimiert das ein oder andere Treiberchen unter der Haube schon im default die Tessellation ohne dass man es wirklich sehen kann usw.

Ich erkenne Parallelen zu Project Cars, Maxwell Top, Kepler und AMD eher Flop (zumindest im Sehr Hoch Setting). Was wars da? PhysX?

Anno:


Project Cars


finde dass gerade Maxwell vielleicht durch hohen GPU Takt hervor sticht. Die Frage ist also... was besitzt die GTX 960 wovon der GM204 / GM200 nur unwesentlich mehr /wenn überhaupt) bietet? Oder bei gleichem Takt genau 2x soviel. ROPs zb?
 
Zuletzt bearbeitet:
SchaGur schrieb:
NV hat keine Treue zu ihren Kepler Karten. Das geht mal gar nicht und macht auch mir Sorgen. Das kann es doch nicht sein, die 290 läuft der davon. Damals sah es so aus als wäre die 780 mächtiger als eine 290X. Ich finde das ganz extrem und ekelhaft.

Seit Witcher3 war klar, dass Kepler für NIvea keine bedeutung mehr hat.
Die 290er war aber schon immer gleichauf mit der 780er. Anfangs halfen noch die Treiber.

Auf längere Sicht ist man bei AMD einfach besser aufgehoben. Anfangs puscht NIvea die Grakas und sobald was neues raus ist........

(Bezogen auf Anno wird AMD treibermässig bestimmt noch einiges gutmachen. Auch ältere Modelle wie die 290er)
 
skelt schrieb:
Seit Witcher3 war klar, dass Kepler für NIvea keine bedeutung mehr hat.
Die 290er war aber schon immer gleichauf mit der 780er. Anfangs halfen noch die Treiber.

Auf längere Sicht ist man bei AMD einfach besser aufgehoben. Anfangs puscht NIvea die Grakas und sobald was neues raus ist........

(Bezogen auf Anno wird AMD treibermässig bestimmt noch einiges gutmachen. Auch ältere Modelle wie die 290er)

Wenn dann in 3 Monaten der Treiber kommt :) Übrigens lustig, weil AMD schon seit x JAhren nichts neues mehr gebracht hat :D Und die FuryX sich nun wirklich so jämmerlich verkauft, dass es ziemlich auffallen würde, wenn AMD nur noch für 0,3% Marktanteil die Treiber optimiert :D
 
so merd sieht W3 bei aktuellen Treibern doch garnicht aus... find ich

http://www.pcgameshardware.de/The-W...Specials/Test-Version-107-Windows-10-1165910/

imho sind die Kepler GTX 770 & R9 280X noch nah beieinander, die GTX 780 verliert recht stark hat aber auch ordentlich OC Potential auf ihrer Seite und es is jetzt nicht so als würden sich Welten auftun, alles in allem sind die Karten mit 2,5 Jahren ja auch schon etwas angestaubt und die R9 290er haben mehr Ram. Aber es zeigt gut wie AMD manchmal die GPU Leistung erst verzögert besser abrufen kann. Ich hatte eigentlich sogar damit gerechnet dass die Fiji noch etwas schneller Boden zu Maxwell gut macht. Auch bei niedrigeren Auflösungen. Bei aktuellen Titeln ist man selbst in FHD teils nicht falsch bedient mit ner starken GPU.

Es gab doch schon Artikel zu alten GPU im Vergleich, alles in allem würde ich da jetzt kein Fass aufmachen. VRam ist da ähnlich, 6 oder 4 GB, ist auch etwas "Glücksspiel" wenns um die Zukunftstauglichkeit geht. Denke die R9 390 (X) könnte mit 8GB hier ne gute Karte für Jahre darstellen.
 
Zuletzt bearbeitet:
Was mach ich denn jetzt? GTX 980 oder GTX 970? Abwarten bis AMD Treiber bringt wollte ich jetzt auch nicht :(
 
Plitzkrieg schrieb:
Wenn dann in 3 Monaten der Treiber kommt :) Übrigens lustig, weil AMD schon seit x JAhren nichts neues mehr gebracht hat :D Und die FuryX sich nun wirklich so jämmerlich verkauft, dass es ziemlich auffallen würde, wenn AMD nur noch für 0,3% Marktanteil die Treiber optimiert :D

Würde die Fury(X) dennoch nicht abschreiben.

Guter Wein braucht Zeit:)

Meine Grakas: 780,570,280,8800,Vodoo4,Vodoo2,irgendwas von Maxtor.
Die nächste wird aber eine AMD.
Pascal wird Anfangs hui, nach einem Jahr pfui:freak:
 
Zumindest schrieb CB nicht sowas als "Ausrede":

The Witcher 3 (bzw Anno 2205) benötigt nicht nur eine schnelle Grafikkarte, sondern deckt ebenso gnadenlos Architektur-Schwachstellen in der Hardware auf. So zeigt sich zum Beispiel schnell, dass die Maxwell-Grafikkarten den Kepler-Pendants klar überlegen sind.

Und dann doch:



GeForce 353.06 : Mehr Leistung für Nvidia Kepler in The Witcher 3


Nvidia stellt sich dann die Zukunft so vor ....

The Witcher 4 benötigt nicht nur eine schnelle Grafikkarte, sondern deckt ebenso gnadenlos Architektur-Schwachstellen in der Hardware auf. So zeigt sich zum Beispiel schnell, dass die Pascal-Grafikkarten den Maxwell-Pendants klar überlegen sind.

Dann wird wohl eine 1060 GTX an einer 980 vorbei ziehen.

Bis dann ein Shitstorm kommt und NV etwas Gnade zeigt:

GeForce 453.83 : Mehr Leistung für Nvidia Maxwell in The Witcher 4 ......

Ich schrieb schonmal:

Von der 580 GTX bis zur 780, würde man aufrichtig dafür optimieren, so hätten die heute noch genaug dampf für The Witcher 3 zb. Da bin ich mir sicher.


Wärendessen Zaubern Armuts GPUs in den Konsolen Hammer Grafik, siehe Drive Club, The Order - sowas müsste Standard sein im PC Gaming. Eine PS4 hat das schönste Rennspiel aller Zeiten. Aber auf einem Highend 4k killer PC findet man diese Grafik nicht. Das ist krass.

Anno 2205 sieht ganz nett aus, aber für Ultra müsste dann doch eine GTX 680 noch ausreichen. Wäre es ein StarCraft 3 mit extrem neuer Grafik, nie gesehen effekten. Aber das ist jetzt keine Wundergrafik. Selbst ein AMD X6 müsste das gut abspielen können.
 
Zuletzt bearbeitet:
Ist das wieder so eine Draw Call Geschichte?

Das bei den NV Treibern da irgendwas nicht nach API lauen "kann" ist
spätestens seit Project Cars eigentlich klar.

Mich würde wirklich mal interessieren wie diese Engine unter DX12 auf den AMD
Karten laufen würde.
Ist eine Portierung/Update denn für das Spiel angedacht?

Eins ist mal klar so "kann" ich es nicht kaufen.
(und es würde mich schon sehr interessieren)
Ich halte diese enorm einseitigen Optimierungen einfach nur für WIDERLICH!
 
Chismon schrieb:
..., aber es werden nicht absichtlich die Grafikkarten mit älteren Chipsätzen (Kepler) gedrosselt um die neue Serie (Maxwell) besser aussehen zu lassen (um damit mehr Leute künstlich zum Aufrüsten zu animieren ...
Ja, oder vielleicht nutzen manche Spiele auch einfach nur irgendeine Technik, die weder auf Kepler noch auf AMD von Haus aus gut läuft.

Maxwell ist hier die einzig wirklich aktuelle Architektur.
Ist nun nicht so unwahrscheinlich, daß Nvidia da einige Probleme des Vorgängers grundsätzlich beseitigt hat.

Chismon schrieb:
Glaubst Du, dass Ubisoft das öffentlich zugeben/preisgeben würde, wie naiv bist Du eigentlich?
Glaubst du, eine über Jahre immer wieder stattfindende Bestechung seitens NVidia würde nicht an's Licht kommen?
Wie naiv bist du eigentlich? :p

Noch mal:
Du hast null Plan, null Belege, null Indizien.
Wie kann man bei so einer Wissenslage eigentlich absolute Statements machen und sich dabei dann noch oberschlau vorkommen?
Da muss ich mich ja fast fremdschämen.
 
Zurück
Oben