Test Grafikkarten 2014 im Vergleich – Sommerausgabe

Ich hab Screens da sind fast 26GB belegt während ich WD zocke.
Wobei davon wohl immer ein Teil Shadowplay ist, dass seine Temp-Daten kontinuierlich in die Ramdisk schreibt.
 
Zuletzt bearbeitet:
Wie zum Teufel kommen Leute drauf, dass ein Referenztest nicht Aussage kräftig ist, oder die Kaufempfehlung an der Realität vorbei?!
Es geht um die Vergleichbarkeit der Karten untereinander, und die ist bei den Referenzdesign genauso gegeben. Natürlich holen die Custom-Design einiges noch aus der Karte raus, aber sowohl bei AMD als auch nVidia. Wenn man bestimmte Design sehen will, hat CB hier genug kleinere Tests zu den jeweiligen Karten, aber zum Vergleich passt das doch?
 
10hmbAir13 schrieb:
aber welche Karte ist denn nun die Sparsamste von Allen?

Nvidia 750 oder 750ti. Es gibt allerdings noch sparsamere Karten, die jedoch nicht im Test dabei waren. Wer zocken möchte, sollte besser was größeres kaufen, dafür sind die 750er zu schwach.
 
Wie bitteschön verbraucht der massiv übertaktete GK104 der Gtx770 66W weniger als die 1GHz-280X? Laut Toms Hardware sind das knapp 20 W Unterschied...
 
Pilstrinker schrieb:
Und wie sieht es ohne aktivem Shadowplay aus? Also nur der Watch Dog Prozess?

Keine Ahnung. Läuft praktisch immer mit, bin zu faul das ständig aus/einzuschalten. Genau deshalb schreibts ja auf die Ramdisk und nicht in die SSD^^
Aber ich schau gerne noch mal heute nach, wenn ich von der Arbeit nach Hause komme.
 
Doch, es darf klar und deutlich auch gesagt werden. Nvidia hat einfach in der Basis viele gute Karten. Die Informationslage, Tests und sogar der Marktanteil spiegeln das deutlich für mich. Gleiche Leistung bei geringerem Energieaufwand ist eben ein hartes Argument. Das das Referenzdesign auch noch eine gute Kühlung hat, was eben so Mehrheitlich ausgesagt wird, macht die Sache sogar perfekt.

Es wird eben die Referenz getestet, weil das einfach die neutrale Linie ist. Bei CPU, bei Grafikkarten, bei Arbeitsspeicher usw.. Es braucht eben eine Linie und keine zick zack Kurve. In neben Tests werden Eigenlösungen und übertaktete Produkte getestet. Jeder hat die Möglichkeit zu vergleichen. Die Redaktion sollte interessante Links zu ihren eigenen Tests mehr einbinden.
Zum Beispiel dieser Testabschnitt. Kühlung und Lautstärke.
https://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/5/
Das man dazu schreibt. Bei AMD lohnt sich ein Referenzdesign einfach nicht. Dort hat Nvidia klar die Vorteile. Wie aber unser Test XY zeigt, gibt es viele Eigenlösungen die zu gebrauchen sind.
Da würde doch so mancher Jammerlappen verstummen. ;)

Wir sollten doch auch mal mit den Füßen auf dem Boden bleiben. Ein Test der 70% Jammern unterbinden könnte, würde mindestens 10€ Mitgliedsbeitrag bedeuten. Dann hat der User einen 60 Seiten Bericht und 50 Videos und kann sich sein persönliches Produkt in 10€ Stufen aussuchen. Sicherlich würden trotzdem noch genug jammern.

Nividia bringt Standard Karten die etwas teurer sind, dafür gleich schnell, oder schneller bei geringeren Verbrauch. Ich muss also als Kunde nicht auf Tests warten die sich mit Eigenlösungen beschäftigen. Das ist auch ein Vorteil. AMD muss da einfach mal was machen.

Das AMD und Nvidia Treiber und Funktionen und Möglichkeiten bieten die je nach Mensch unterschiedliche Meinungen und Gefühle erzeugen sind dann eigentlich Nebensächlichkeiten.


Nvidia = teuer, Leistungsstark, Effizent, schon als Standard
AMD = günstiger, Leistungsstark, nicht so effizient und man muss schauen welcher Hersteller mir was kühles, leises anbieten kann.

AMD hat also noch Möglichkeiten. Sie müssen einfach an ihrem Erscheinungsbild arbeiten.
 
Zuletzt bearbeitet:
ChaosCamper schrieb:
Wie zum Teufel kommen Leute drauf, dass ein Referenztest nicht Aussage kräftig ist, oder die Kaufempfehlung an der Realität vorbei?!
Es geht um die Vergleichbarkeit der Karten untereinander, und die ist bei den Referenzdesign genauso gegeben. Natürlich holen die Custom-Design einiges noch aus der Karte raus, aber sowohl bei AMD als auch nVidia. Wenn man bestimmte Design sehen will, hat CB hier genug kleinere Tests zu den jeweiligen Karten, aber zum Vergleich passt das doch?

Ich finde keine Vergleichstests von Customkarten mit dem neuen Testzenario samt aktuellen Treibern, du etwa ?

Wie vergleichen 90% Customkäufer ihre Werte mit denen des aktuellen Roundups? Nicht möglich im Moment.
 
Mal eine Frage an die Redaktion :)

Habt ihr auch festgestellt, dass die R9 290(X) in einigen Spielen, die weniger Grafiklastig sind, ihren Takt deutlich verringert? Das hat ja auch einen Einfluss auf die FPS und dürfte für Vergleichszwecke relevant sein. Auf meiner G19-Tastatur sehe ich häufig, wie der Takt aufgrund dieses "Stromsparfeatures" von 1040Mhz auf 800Mhz einbricht (z.B. in ARMA III). Bei grafisch anspruchsvollen Spielen wie BF4 oder Crysis hält sie ihren Takt dagegen immer.
 
Also noch mal zum Thema VRAM. Ich habe gemerkt das bei Watch Dogs die GPU Auslastung genau in dem Zeitpunkt sinkt wenn es anfängt kurz zu zucken. Es liegt nicht am VRAM, die Karte läd den VRAM voll um Puffer zu haben. Ich habe dem RAM auf 320GB/s gebracht also in etwa auf den Niveau einer R9 290/X und es zuckt immer noch. Denn die GPU Auslastung fällt für einen Moment immer in den Keller. Die CPU wird maximal auf 60% ausgelastet die anderen 7 Threads gehen nicht einmal über 45%. Der Arbeitsspeicher liegt nach etwas längerem spielen bei 5,5GB von den 16GB die ich habe. Wenn die GPU aber auf 80-90% läuft dann ist nicht ein Zucken im Spiel zu erkennen. Mit der ersten Patch wurde versucht die High Texturen etwas flüssiger zu machen was teilweise gelungen ist, aber auf Ultra zuckt es immer noch. Da wird bald ein zweiter Patch kommen so wie ich es in einem Online Magazin gelesen habe. Genau das gleiche Phänomen habe ich auch bei AC4 Black Flag, immer wenn es ruckelt geht die GPU Auslastung runter, der Takt bleibt natürlich konstant oben. Das Spiel verbraucht gerade mal 1,7GB maximal. Also liegt es eindeutig an einem Bug im Spiel, ob da noch eine Patch kommt ist fraglich.
 
Für mich ist dieser Test wie viele andere eher wertlos, da ich nur vereinzelte grafisch anspruchsvolle Titel Spiele und generell eine Framelimiter auf 59fps bzw auch vsync aktiviert habe. Gerade in Titeln wie Diablo III hat meine Karte trotz 2560x1440 eher wenig zu tun.
Solche Werte fände ich mal interessant. Würde ich eine Kaufberatung benötigen, wäre dieser Test für mich eher belanglos. Mich interessieren eher min. Frames sowie Verbrauch bei aktiviertem Framelimiter.
 
Hallo Computerbase-Team,
danke für den Test. Überlege gerade, meine Grafikkarte zu wechseln, und da hat mir dieser Test(+Vergleich) sehr geholfen!
Vielen Dank
 
George03 schrieb:
Also noch mal zum Thema VRAM. Ich habe gemerkt das bei Watch Dogs die GPU Auslastung genau in dem Zeitpunkt sinkt wenn es anfängt kurz zu zucken. Es liegt nicht am VRAM, die Karte läd den VRAM voll um Puffer zu haben. Ich habe dem RAM auf 320GB/s gebracht also in etwa auf den Niveau einer R9 290/X und es zuckt immer noch. Denn die GPU Auslastung fällt für einen Moment immer in den Keller. Die CPU wird maximal auf 60% ausgelastet die anderen 7 Threads gehen nicht einmal über 45%. Der Arbeitsspeicher liegt nach etwas längerem spielen bei 5,5GB von den 16GB die ich habe. Wenn die GPU aber auf 80-90% läuft dann ist nicht ein Zucken im Spiel zu erkennen. Mit der ersten Patch wurde versucht die High Texturen etwas flüssiger zu machen was teilweise gelungen ist, aber auf Ultra zuckt es immer noch. Da wird bald ein zweiter Patch kommen so wie ich es in einem Online Magazin gelesen habe. Genau das gleiche Phänomen habe ich auch bei AC4 Black Flag, immer wenn es ruckelt geht die GPU Auslastung runter, der Takt bleibt natürlich konstant oben. Das Spiel verbraucht gerade mal 1,7GB maximal. Also liegt es eindeutig an einem Bug im Spiel, ob da noch eine Patch kommt ist fraglich.

Du hattest doch vor deiner GTX 780 eine Karte mit 4GB Speicher, oder?

Und mit der gab's auch keine Ruckler. Woran wird's also jetzt liegen?
 
@hrafnagaldr
Du kaufst Dir ne High-End-Graka nur um sie dann auf 60 FPS zu kastrieren? Wer macht denn sowas außer Dir bewusst?
Also ich meine ich spiele auch fast ausschließlich mit vsync, aber ich kaufe meine Graka so fett wie möglich, weil ich weiß das ich in den meisten Fällen gar keine 60 FPS erreiche.
Normalerweise kauft man doch nach der Leistung die man braucht im Worst Case, und da muss die Betrachtung doch ohne Limiter erfolgen.
 
blackiwid schrieb:
Das kann man schon teilweise weg diskutieren, beim Idle verbrauch kann ich nix sagen, da scheints wohl ein reines treiber problem zu geben, das kann also gefixt werden.
Das hatte ich auch gehofft, aber der AMD Support hat ohne Witz und Ironie bereits schonungslos, offen und ehrlich geprüft, dass sich dies nur durch eine andere GPU lösen lässt. Aber das Problem ist nicht neu, läuft schon seit den HD5er Karten so und war tw. noch krasser der Unterschied zu nVidia.

Für Leute, die überwiegend im idle arbeiten und zwei verschieden große Monitore nutzen und ab und zu mal zocken wollen und zwar nebenher auf einem weiteren Monitor, ohne gleich den Rechner wechseln zu wollen, weils auf den anderen beiden gerade um viel Geld geht und die im Auge gehalten müssen, gibt es damit für die nächsten 12 Monate keine Alternative zu nVidia. Echt kacke! https://www.computerbase.de/forum/t...x-vs-mvidia-gtx-780-ti.1372762/#post-16043943
 
Schade das beim Test doch viel Modelle mit Referenz Kühler dabei waren, so sind die Werte für Lautstärke/Leistungsaufnahme relativ wertlose Daten.

z.B 270(x) ziehen beide fast gleich viel Watt unter Last oder 260X mehr als 265er .
Kann dann nur an schlechter Kühler bzw. an den hohen Temperaturen liegen ,die dann mehr Strom aus der Dose zieht.
 
HisN schrieb:
@hrafnagaldr
Du kaufst Dir ne High-End-Graka nur um sie dann auf 60 FPS zu kastrieren? Wer macht denn sowas außer Dir bewusst?

Meine letzte Highend Karte war wohl eine GF2GTS und es sind auch nicht nur Highend-Karten im Test. Davon abgesehen spiele ich wie gesagt in 2560x1440. Da braucht es evtl. gerade mit hohen Qualitätseinstellungen auch Highend-Karten, um die 60fps zu halten. Aber dazu muss ich die min. Frames auch wissen. Und wenn die mit Teillast läuft hätte ich auch gerne ein paar Verbauchswerte.
Die Welt besteht nicht nur aus 144Hz Shooter Spielern...

Das Arugument ist ohnehin doof. Evtl. braucht eine R9 290X mit Framelimiter ja deutlich weniger Strom als eine R9 280X am Anschlag? UNd die Karte kann ich mit meinem Einsatzszenario natürlich auch länger nutzen.

In 80% der Zeit die ich meinen PC nutze interessieren mich der max. Verbrauch von CPU und GPU nicht wirklich.

Aber gut, CB war nie wirklich relevant, besitze ich aus dem Testparcours doch immerhin ein Spiel (Risen2) das ich schon vor zwei Jahren oder so durch hatte. Aber das sind genrelle Probleme von Grafikkartentest, nicht nur auf CB.
 
Zuletzt bearbeitet:
x-polo schrieb:
Kann dann nur an schlechter Kühler bzw. an den hohen Temperaturen liegen ,die dann mehr Strom aus der Dose zieht.

Kann mir das mal bitte einer erklären?
Vielleicht stehe ich ja auf dem Schlauch, aber wie Temperatur den Stromverbrauch bedingt erschließt sich mir wirklich nicht.
 
Zurück
Oben