Test Grafikkarten-Benchmarks: CS:GO, Dota 2, LoL, WoT und WoW in Ultra HD im Vergleich

Oder die 970 ist CB zu alt, zumindest ein Hinweis, warum eine derart beliebte und aktuelle Karte nicht dabei ist, wär schon gut.
 
greatdane schrieb:
Zum Glück gibt es auch noch Leute mit 16:10 die 1920x1200 aufwärts spielen, also definitiv mehr als FullHD. Dieses 16:9 gezwurbel hält doch keiner mehr aus der einmal das wahre Licht gesehen hat.

du bist wohl noch einer derjenigen, die denken, dass man auf 16:10 mehr sieht als auf 16:9
 
Mal eine Frage an die max. Einstellungen CS GO Spieler hier: Motion Blur auch aktiviert?:evillol:
 
Nein^^ Wär aber mal lustig ;)
 
Für Ultra HD mit 3.840 × 2.160 Pixel braucht es bei vollen Details längst nicht immer das Flaggschiff. Des Öfteren reicht auch eine GeForce GTX 980 oder eine Radeon R9 390X aus, einige Titel laufen in der hohen Auflösung auch mit einer Radeon R9 380, einer GeForce GTX 960 oder einem noch langsameren Modell.

wenn ich es nicht besser wüsste, würde ich denken (wenn ich mir das so durchlese), die 390X und GTX 980 sind budget/performance/einsteiger Karten und die 380 und GTX 960 low-budget... :lol:
 
@Igoo:
Die Perfomance ist bei mir ganz ordentlich, sonstige Bugs gehören halt zu einem solchen Unterfangen dazu (ist ja immerhin eine Beta). Aber trotzdem wird die gute Arbeit hier trotzdem in kurzer Zeit völlig umsonst sein.
 
Das gilt oftmals nach jedem Patch oder neuem Treiber, die Benchmarks sind halt nicht für die Ewigkeit. Bisher hat die Reborn Beta bei mir im Durchschnitt 20-30 fps weniger, also Drops auf bis zu 90fps in 2560x1440 die ich bei dem "alten, normalen" Dota nicht habe
 
Könntet Ihr nicht auch einen Reiter in 4k ohne AF / AA veröffentlichen?

Denn bei 4k ist Kantenglättung doch so gut wie überflüssig, oder nicht?
 
@CB: Eine kurze Anmerkung zur Skalierung bei SLI/Crossfire wäre super gewesen.
 
Mit einem neuen Treiber sind die Benchmarks aber trotzdem nicht komplett für die Füchse wie mit einer Engineumstellung.
 
Toller relativ praxisnaher Test, immerhin spielt die halbe Welt diese Spiele! Finde die Verbrauchsmessungen super, zeigen mMn auf, dass auch in Zukunft bei mehreren Spielen gemessen werden sollte, die Unterschiede zwischen den Spielen sind teilweise eklatant.
Meine Erkenntnisse:
Trotz anderen Rufes performen die AMDs auch außerhalb von AAA Titeln sehr ordentlich.
Die 380 kann in Sachen Energieeffizienz leider in keinster Weise mit der 960 mithalten.
Fiji Teilabschaltungen funktionieren sehr gut, in Lol ist sie nach der 960 die sparsamste Gpu, wobei alle die selben fps liefern.
Falls in Lol ein CPU Limit vorlag und die fps nicht beschränkt waren, ist der Treiberoverhead bei Amd wohl nicht mehr höher als bei NVidia.
 
Ein eher uninteressanter Artikel, da so gut wie niemand solche Spiele in UHD spielt, aber trotzdem nice to have ;)

Was mich stört: von der R9 390X bzw Radeon Fury gibt es kein Referenzdesign, d.h. 390X ist nicht gleich 390X, das selbe gilt für die Fiji Pro Karten. Zb benötigt eine MSI 390X deutlich mehr Energie als eine Sapphire 390X, die Asus Fury ist ca. 40W sparsamer als die Fury X, während die Sapphire Fury, wegen der höheren Spannungen und evtl wegen der Referenz-Platine, etwa genauso viel Energie benötigt.
Auch von der R9 380 gibt es kein Referenzdesign, d.h. die Resultate gelten nicht für alle 380/390X/Fury's.

Ist es denn so schwer einfach Sapphire, bzw. Asus oder was auch immer daneben zu schreiben?
 
Bestätigt mir mal wieder, dass die WOT-Engine absoluter Schrott ist. Wie man für so wenig Darstellungsqualität so viel Leistung verbraten kann, ist mir echt ein Rätsel. Ich hab ne 290X und nen 8 Kern Prozzi und habe nur Full-HD eingeschalten. Längst nicht alle Einstellung auf "Hoch" weil ich dann schnell weit unter 60 FPS falle. Mit den Einstellungen jetzt hab ich irgenwas zwischen 50 und 60 FPS, was ok ist. Trotzdem ist der Leistungshunger brutal und das Game sieht trotzdem aus wie 2003.
 
Was man bei diesem UHD-Hype wieder mit keinem Wort erwähnt ist die Frage nach der Sinnhaftigkeit. Haben alle die getesteten Spiele ein skalierbares UI? Bei WoW kann ich das bestätigen, WoT hat es definitiv nicht. Die anderen Spiele besitze ich leider nicht, würde mich aber interessieren.

Leistungstechnisch mags dann nämlich kein Problem sein, aber ich brauch das Spiel so nicht spielen, UHD hin oder her. Aktuell in WoWS gleiches Spielchen, hat ein fps-Limiter auf 75, soweit so gut. DSR mit UHD technisch kein Problem, doch erkenne ich dann im Spiel kaum noch etwas. Dieser Hype mit UHD geht mir aufn Keks, nicht einmal das einigermaßen gut mit UHD funktionierende Betriebssystem ist veröffentlicht, aber alle schwören auf die Bildqualität. Nur im UI erkennt man nix mehr, Glückwunsch :D

Lagerhaus_Jonny schrieb:
Bestätigt mir mal wieder, dass die WOT-Engine absoluter Schrott ist. Wie man für so wenig Darstellungsqualität so viel Leistung verbraten kann, ist mir echt ein Rätsel. Ich hab ne 290X und nen 8 Kern Prozzi und habe nur Full-HD eingeschalten. Längst nicht alle Einstellung auf "Hoch" weil ich dann schnell weit unter 60 FPS falle. Mit den Einstellungen jetzt hab ich irgenwas zwischen 50 und 60 FPS, was ok ist. Trotzdem ist der Leistungshunger brutal und das Game sieht trotzdem aus wie 2003.

Das liegt an der Engine von Wot. Die läuft nur auf einem Kern, wo z.B. AMDs Bulldozer das Nachsehen haben (könnten). Ich habe in WoT mit dem 3570k kein Problem und es hat mit 9.9 durchaus einen höherwertigen Anstrich bekommen inklusive neuer AA-Modi
 
Zuletzt bearbeitet:
Finde diesen Test super:

Klar interessiert mich bei einer neuen Grafikkarte, vor allem, wenn es ein Flaggschiff ist, die Leistung in einem anspruchsvollen aktuellen Triple-A-Titel. Rein aus Neugier :D

Selbst aber bin ich mit meinen Spielen der aktuellen Zeit doch etwas hinterher: Ich hab "nur" ne R9 280X und spiele Skyrim, WoT, Elite Dangerous, Risen und Witcher. Ok - und Project Cars ;) Mit den 15/7er Treibern habe ich jetzt via VSR auf 2560x1440 hochgeschaltet (für mehr ist die 280X treiberseitig nicht freigeschaltet), und es ist schon erstaunlich, daß die um 33% höhere interne Auflösung auf die fps in WoT und Skyrim fast keine Auswirkungen hat gegenüber Nativ-FullHD.
Wohlgemerkt: Ich spiele Skyrim noch dazu in 3D! Juckt die Karte bisher nicht.

Project Cars muß ich noch testen... mal gespannt. Da ich aber in FullHD @Max bisher nicht ein bißchen Ruckeln hatte, bin ich echt mal gespannt... :D


Da das in einem aktuellen Triple-A-Titel natürlich ganz anders aussehen kann, finde ich diesen Test hier doch sehr interessant. Auch, wenn mich von UHD noch ein bißchen was trennt ;)


EDIT:
Bestätigt mir mal wieder, dass die WOT-Engine absoluter Schrott ist. Wie man für so wenig Darstellungsqualität so viel Leistung verbraten kann, ist mir echt ein Rätsel. Ich hab ne 290X und nen 8 Kern Prozzi und habe nur Full-HD eingeschalten. Längst nicht alle Einstellung auf "Hoch" weil ich dann schnell weit unter 60 FPS falle. Mit den Einstellungen jetzt hab ich irgenwas zwischen 50 und 60 FPS, was ok ist. Trotzdem ist der Leistungshunger brutal und das Game sieht trotzdem aus wie 2003.
Hmmm, kann ich so jetzt nicht bestätigen...
Ich hab alles auf Max inkl. Licht und Schatten, AA auf FXAA (die beiden Modi drüber sehen einfach nur unscharf aus - da krieg ich Augenkrätze von :D), und nur die Bewegungsunschärfe aus, weil ich die nicht mag.
Und WoT rennt mit meiner 280X immer zwischen 50 und 60, meist pendelt er zwischen 57 und 61 mit ein paar Ausnahmen (bspw. bestimmt Blickwinkel bei Erlenberg; da geht's auch mal temporär auf 45 runter).

Und es liegt auch mit VSR @2560 nur 2-3 fps niedriger, wenn überhaupt.

Verstehe nicht, wieso Du nicht voll(er) aufdrehen kannst... *kratz-Kopf-grübel*
 
Zuletzt bearbeitet:
Kaum nach dem Release wird die Fury in allen möglichen Tests mit ihren jungfräulichen Treibern gegen ausgereifte Nvidia Treiber bei der 980+ getestet.
Ahhh verdammt, jemand ist dahinter gekommen, dass bei Tests mit neuen Karten die am Markt erscheinen auch die aktuellen Treiber genutzt werden und nicht Downloads aus der Zukunft! :evillol:

Und was nVidia betrifft, schau Dir doch mal die Ergebnisse in den Vergleichsbenches an - da wird z. B. die GTX780 mit 920MHz immer noch zu Rate gezogen, obwohl es die Referenz-Karte die so arg im Temp-Limit hing gar nicht mehr im Markt gibt und die Karte dadurch rund 25% langsamer ist als die Wettbewerber - ähnliches bei anderen nVidia-Karten......!

Soviel zu "nVidiaBase"......
 
Bei LoL war bei euch wohl der FPS Limiter in den Optionen an ;-)
Meine GTX260m (im Laptop) schafft an die 160FPS in LoL... (keine Hohen Details)
 
estros schrieb:
Oder die 970 ist CB zu alt, zumindest ein Hinweis, warum eine derart beliebte und aktuelle Karte nicht dabei ist, wär schon gut.

Die 970 ist der 980 doch ähnlich genug, dass man die Ergebnisse einfach per "Zweisatz" umrechnen kann. Dem CB-Test nach ist die 970 ca. 11-12% langsamer als die 980.
Dass es da große Schwankungen von Spiel zu Spiel gibt, ist relativ unwahrscheinlich, weil die Karten ja auf der selben GPU(-Architektur) basieren.

Es ergibt also realtiv wenig Sinn, immer beide "Karten-Brüder" zu testen.
 
Zuletzt bearbeitet:
Meine Radeon 285X (2GB) schafft bei Diablo 3 und 3840x2160 konstant 60 FPS (interner Limiter). Ich verwende zwar kein "PP-AA", jedoch alles andere auf max. Mit den aktuellen Treiber 15.7 und FreeSync ist das perfekt geschmeidig.

Was ich in diesem Zusammenhang nicht verstehe, warum bei 3840x2160 permanent und ausschließlich mit AntiAliasing getestet wird. Der AA-Effekt ist bei der Auflösung kaum nötig. Die Treppenbildung ist immens weniger zu erkennen. (Selbst auf 32".)

Insbesondere hier verstehe ich ein "8x MSAA" bei der Auflösung nicht mehr? Ich hab schon einige Titel bei der Auflösung ausprobieren können, und AA war nun gerade das allerletzte Grafikfeature, was ich vermisst habe. Die Performancekosten rechtfertigen kaum den Qualitätsanstieg, abgesehen vom FXAA, das gerade bei der Auflösung und aufgrund seiner Natur alles zu "verwischen" ebenso fragwürdig ist.

Hier den kompletten Test, Fazit, Angaben zur Leistung und Verbrauch einzig auf Benchmarks mit aktivierten, teils hohen AA zu beziehen, finde ich sehr kritikwürdig. (Ansonsten gefällt mir der Test. Bitte nicht missverstehen.)

So wird m.E. erneut verzerrt, dass die 3840x2160 Auflösung mit älteren Karten, bzw. Midrange Grafikkarten nicht gut oder mit nur eingeschänkt spielbar wäre. Das halte ich nach eigenen Tests für einen großen Irrtum! Es gibt einen Haufen wirklich schöner Spiele die ohne weiteres in 4K laufen.
 
Zuletzt bearbeitet:
Zurück
Oben