• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Anno 2205 Benchmarks: Bombastische Grafik braucht richtig Leistung

Dai6oro schrieb:
Ernsthaft Leute soll CB jetzt für euch jegliche mögliche Taktrate mittesten weil Nvidia unbedingt einen schwankenden Boost haben muss? Wenn ihr nicht in der Lage seid eure eigenen OC: Karten leistungsmäßig einzuschätzen kauft euch doch Referenzkarten, denn die werden meist getestet. Und was das hier mit CPUs zu tun haben soll, das kann nur unser Plitzkrieg erklären.

Tut mir leid, dass du die Taktraten so einfach siehst "+10% mehr Takt = +10% mehr Leistung" ... Ich wars doch nicht der mit diesem Quark dahergekommen ist. Ist doch auf deinem Mist gewachsen xD
 
Also ich weiß ja nicht wie deine Wahrnehmung ist aber du darfst gern zitieren wo ich folgendes geäußert habe:

"+10% mehr Takt = +10% mehr Leistung"

Mir ist durchaus bekannt dass die Leistung nicht linear zum Takt steigt und das habe ich auch nicht behauptet. Wie gesagt wenn du zu einer groben Einschätzung nicht in der Lage bist und du jetzt völlig verwirrt bist weil deine Karte etwas mehr boostet dann kann ich dir auch nicht helfen. ich sag es gerne nochmal ein Bench ist eine grobe Leistungseinschätzung. Keine Ahnung was du willst aber das gibts nicht, da hilft nur kaufen und selbst probieren.
 
Was willst du damit bewiesen haben? Wir sind hier nicht bei ich mal mir meine Welt wie sie mir gefällt ! Abgesehen davon dass das hier OT ist bitte ich die Mods den ganzen Käse um die Taktraten zu versenken. Danke. Diskussion fällt ja flach ist ja mehr ein "ich rede gegen eine Wand".
 
Oh wait! Man soll doch einfach nur den Boost Takt der Referenzkarte anschauen, diesen mit dem eigenen Boosttakt vergleichen und tada schon weiß man wie schnell die eigene Karte abschneiden wird!

Sorry, aber das ist genau das was du gesagt hast!

Wir sind hier nicht bei ich mal mir meine Welt wie sie mir gefällt ! Abgesehen davon dass das hier OT ist bitte ich die Mods den ganzen Käse um die Taktraten zu versenken. Danke. Diskussion fällt ja flach ist ja mehr ein "ich rede gegen eine Wand".
 
Krautmaster schrieb:
zudem hat Nvidia dank mehr Asche auch mehr in den DX11 Treiber investiert, auch kein Geheimnis. Noch weniger ein Geheimnis dass Nvidia am PC viel mehr Marktanteil hat und es nur logisch ist dass die Engine mit Fokus auf den Größten Anteil entwickelt wird, alles andere wäre eben.

Nein, das ist nicht logisch, da sich die Situation zwischen den Grafikherstellern immer wieder ändert und auch die AMD Nutzer >30% ( es werden ja nur die aktuell verkauften Karten in Marktanteilen gemessen) das Spiel problemfrei spielen.
Und es sieht ja überhaupt nicht danach aus, dass es am AMD Treiber Overhead liegt, die CPU Messungen sagen das nicht.
Schau doch mal den Test selbst an und ziehe daraus die Schlüsse.

... wirtschaftlich unklug. Das reicht ja schon wenn die Entwicklungshardware auch auf grün läuft oder Nvidia durch bessere Finanzen mehr unterstützend wirken kann.

Genau das Gegenteil müsste aus Sicht eines Spieleentwickler der Fall sein.

Das sind alles Gründe... und keiner davon ist wirklich jemand direkt anzulasten da alles zusammenhängt. Nvidia kann wenig dafür wenn sie durch bessere finanzielle und Marktsituationsbedingte Gegebenheiten durch Mehraufwand besser dastehen, bzw. irgendwas müssen sie wohl in Vergangenheit besser gemacht haben.

Unbewiesene Behauptung, zumal was ist denn mit Kepler los? Wieso kann Nvidia in Witcher 3 und hier die angebliche Vorteile nicht konsequent ausspielen für Keplerkarten?
Dass es an finanziellen Gegenbenheiten liegt ist nur eine Theorie, die unbewiesen ist, zumal die Tests mit der CPU gegen deine Meinung hier sprechen.

vielleicht noch ATI heißen gäbst nun vielleicht auch ne Latte neuer Mittelklasse AMD HBM Chips und mehr Unterstützung auf Entwicklerseite.

Dass ein Spiel in speziellen Settings ( shaderlast hoch) derart langsamer laufen kann ( Kepler und Hawai/Tonga) sieht alles andere nach einem generellen Treiberproblem aus.
Das zeigen die CPU Benchmarks. Selbst ein FX-8370 bringt auf einer Fury X genausoviele FPS wie der schnellste Intel Prozessor.

Und HBM ist teuer, da kann auch ein ATI die nicht jetzt schon anbieten, weils unwirtschaftlich wäre.
 
Zuletzt bearbeitet:
Ist hier vielleicht jemand mal drauf gekommen, dass AMD hier versagt hat in Sachen Treibeesupport? Daran wird nie gedacht, oder?

Ist ja auch so abwägig, gell...? :D

Respekt. Die Fury X so schnell wie ne GTX970.
Da zeigt sich mal wieder dass die Rohleistung der Karte nix bringt, solang die Software nicht drauf abgestimmt ist.
 
Wieso ist dann AMD bei max Settings gut dabei und die Fury X sogar schneller als die 980 Ti?
Man wird halt abwarten müssen woran es liegt, anstatt immer Spekulationen als Fakt hinzustellen.
 
Mir ist es eigentlich egal ob jetzt Nvidia oder AMD im Topbereich die Krone haben, solche Karten haben hier eh die wenigsten, genauso wie die CPU Testsysteme, wer hat denn von uns alle einen Top i7?

Mir wäre lieber man würde das Spiel auf Systemen testen, die in den meisten Zimmern stehen und dann im Anschluss ein Vergleich zu einem Spitzen System.

Laut Steam Umfrage besitzen die meisten halt einen i3 oder i5, die Minderheit ist mit i7 unterwegs, genauso sieht es doch bei den Grafikkarten aus. Das ein kleine Mehrheit hier im Forum bessere Systeme hat, liegt auch nur daran das wir uns für Hardware etc interessieren und nicht oft den "Ottonormalverbraucher" darstellen.

Darum würde ich bei zukünftigen Tests bitten...

Ob am Ende ein Spiel mir gefällt muss ich selber entscheiden, dazu reicht ein Test einer Seite mir eh nie. Ich brauche da Youtube Videos, verschiedene Tests auf unterschiedlichen Seiten und am besten ein Livestream um auch Fragen stellen zu können.
 
Chismon schrieb:
Beschwerden über die miese Kundenpolitik nVidias gab es schon vielfach, sonst hätten sich nicht im nVidia Forum wahnsinnig viele Kepler Besitzer über den miesen (absichtlich schlechten) Kepler Treiber-Support beschwert ...
"Wahnsinnig viele" ... und über den AMD-Treiber-Support hat sich wahrscheinlich noch nie jemand beschwert, was? :rolleyes:

Chismon schrieb:
... und dass Ubisoft nach nVidias Pfeife tanzt, kann man auch relativ klar an den letzten Titeln zu sehen ... Einnahmen verpassen, wieso das, wenn nVidia es sponsort ...
Ok, jetzt nimm mal bitte für eine Minute den Alu-Hut ab, und zeige mir den Nachweis, daß NVidia an Ubisoft (Bestechungs-)Gelder zahlt.

Chismon schrieb:
... aber diejenigen, die sich in der Materie nicht auskennen ...
... lassen hier dann so paranoide Verschwörungstheorien wie du ab.

Du hast doch absolut null Ahnung, wovon du redest.
Hast du schon mal eine fortschrittliche 3D-Engine programmiert und versucht zu optimieren?
Nein. Wahrscheinlich hast du noch nicht einmal vernünftige Benchmarks gemacht, um Leistungsunterschieden bei einigen Spielen auf den Grund zu gehen.
Denn z.T. sind es lediglich einzelne grafische Features, die auf einem bestimmten System abkacken. Und das ganz sicher nicht, weil irgendwer mit Absicht schlecht programmiert hat, sondern weil einfach die Zeit gefehlt hat, es besser zu machen und auf allen Systemen zu testen.
 
Plitzkrieg schrieb:
WOW! Mit der gleichen Methode werden auch noch AMD CPUs an den Mann gebracht! Was? Intel hat nur 4x3,4GHz? AMD hat doch schon 8x4,8GHz! Dann nehme ich doch einfach den AMD! Der ist 2-3 mal so schnell!

Wenn das mit den Taktraten doch nur sooo einfach wäre! Dann hättest du sogar recht!

unabh. von Sinn der Unsinn der Diskussion ist es bei GPU idR schon quasi lineares Skalieren über Takt. Schau dir einfach die Tests an. Fury is da eher noch die Ausnahme... aber klar, die GTX 780 ist ein Extrembeispiel.

-> einfach den Test der Karte anschauen, sehen dass zb im Fall der GTX 780 30% mim Stock Design problemlos geht und dann zb hier etwa 20-30% draufrechnen wenn man da ne Einschätzung haben will, oder eben CB testet einfach Custom Designs (wenn sie haben).
 
was machen die nur mit AMD, immer wieder leist man das die GraKas probleme haben oder langsamer rendern als nVidea. langsa, fällt es einem echt schwer denen treu zu bleiben, auch wenn ich ungerne wechseln will. Kann mir nicht immer die HighEnd Karten leisten :-/
 
Mercsen schrieb:
langsa, fällt es einem echt schwer denen treu zu bleiben
Die Treue scheint es nie gegeben zu haben, sonst würde man sich nicht von Day-1 Benchmarks oder dem Gebrabbel anderer verunsichern lassen.

Wenn du natürlich AMD Hardware besitzt, nimmst du Probleme damit stärker war. Aber ich könnte mit dir wetten, dass du mit Nvidia genauso verunsichert wärst, wenn du deren Probleme als Nutzer direkt wahrnehmen würdest.
 
Naja ich denke je mehr die Titel heute in die Grafiklast getrieben werden, wie bei Anno in Ultra oder auch sehr hohen Auflösungen (4k), dann sieht man gut wie AMD die höhere Rohleistung ihres Fiji viel besser umsetzen kann wie zB in kleiner Auflösung.

Zeigt ziemlich gut AMDs derweil häufigeres Problem auf. Fetter Chip, prinzipiell gute Architektur aber die enorme Rohleistung kommt (meistens) zu schlecht auf die Straße bzw. auf den Bildschirm.

Rein von der Leistung des Fijis her müsste dieser die GTX 980 TI konsequenter hinter sich lassen. Massig Speicherbandbreite, super Flop Werte Single wie Double Precision ... auch der Energiebedarf ist dem sehr dicht gepackten performanten Chipdesign geschuldet. (man bedenke dass das HBM SI ja auch noch ne Ecke kleiner is...)

Dieser Umstand dürfte auch dafür sorgen, dass die AMD Karten meist gegen Ende ihrer Lebenszeit nach Jahren besser als die Konkurrenz dastehen, zumindest tendenziell. Hier ist die GPU Auslastung dann durch die Engines wieder höher, ähnlich von 4K heute und dann skalieren die AMD GPU meist auch etwas besser.

Kann zB diverse Ursachen haben:

1. DX 11 limitiert zu sehr und Nvidia hat es geschafft durch Mehraufwand die bestehende API besser aufzulasten (klar die haben auch mehr Geld, können sich sowas eher leisten)
2. Die Architektur skaliert unzureichend und muss überarbeitet werden. Zu Tonga skaliert Fiji ganzgut, zur Hawaii eher mittelprächtig.
3. Die üblichen Vorurteile gegenüber der Publisher nur auf Nvidia zu optimieren (um dann im Ultra Preset und 4k plötzlich auf AMD zu optimieren oder was? ^^)

Ich denke eher dass (1) zutrifft, andernfalls müsste AMD die Architektur schon deutlich anpassen ähnlich wenn eine neue Fertigung zB. die Shader wieder verdoppelt. Selbiges muss Nvidia ja wohl mit Pascal auch tun.
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Zeigt ziemlich gut AMDs derweil häufigeres Problem auf. Fetter Chip, prinzipiell gute Architektur aber die enorme Rohleistung kommt (meistens) zu schlecht auf die Straße bzw. auf den Bildschirm.

Das ist bei Fijii ein Spezialfall, da hier das Frontend entscheidend die Performance in FUll HD bremst.
Trotzdem ist das Problem bei Anno völlig anders gelagert und wohl eine leicht zu behebende Unterdrückung der Leistung unter hoher Shaderlast.
Irgendetwas passiert da und bremst Kepler und AMD Karten aus.

Rein von der Leistung des Fijis her müsste dieser die GTX 980 TI konsequenter hinter sich lassen. Massig Speicherbandbreite, super Flop Werte Single wie Double Precision ... auch der Energiebedarf ist dem sehr dicht gepackten performanten Chipdesign geschuldet. (man bedenke dass das HBM SI ja auch noch ne Ecke kleiner is...)

Nvidias Karten haben fettere 1D Shader. AMD muss mehr Shader verbauen um die gleiche Leistung zu erreichen.
Zudem verschwenden die 1D Shader von Nvidia deutlich mehr Platz.
Das sieht man wenn man sich die Chipgrößen der Karten ansieht. Maxwell wurde deutlich größer, obwohl die Anzahl der Shader gleich bliebt und nur bei Maxwell V2 GM200 leicht erhöht wurde. 2816-->3072

1. DX 11 limitiert zu sehr und Nvidia hat es geschafft durch Mehraufwand die bestehende API besser aufzulasten (klar die haben auch mehr Geld, können sich sowas eher leisten)

Ich denke nicht dass hier Geld eine Rolle spielt, denn während Nvidia an der Directx11 Performance geschraubt hat, hat AMD Mantle entwickelt.
Und soviel schlechter ist die Directx11 Leistung der AMD GPU´s auch überhaupt nicht.

Vergleich 2500k --> i7 4790K @4,5ghz.

R9 390 ----> -3%
Fury X ------> -6% bei 9 getesteten Spielen in Full HD.

Ich denke eher dass (1) zutrifft, andernfalls müsste AMD die Architektur schon deutlich anpassen ähnlich wenn eine neue Fertigung zB. die Shader wieder verdoppelt.

Wo trifft das denn zum Beispiel zu? Hier in Anno? Eher nicht, siehe CPU Auslastung.
 
grafik ist ja eher mau bei solchen anforderungen, hätte erwartet das alles "realer" aussieht aber man sieht halt überall das es einfach nur nen game ist... schade.
 
Nur aus interesse, weil ich selber eine Saphire Fury habe:

Warum wird in einiges Tests bei Computerbase die Fury (ohne X) nicht mit aufgelistet?
Bewegen die sich auf der fast gleichen Leistung, dass es unnötig ist die Fury anzuführen?

Lg, Don
 
Zuletzt bearbeitet von einem Moderator:
Artikel-Update: Nvidia hat mit dem GeForce 358.87 mittlerweile einen Game-Ready-Treiber für Anno 2205 zum Download bereit gestellt. ComputerBase hat den Artikel um Benchmarks mit diesem Treiber ergänzt.
 
Zurück
Oben