Test Grafikkarten: 17 × AMD Radeon und Nvidia GeForce im Vergleich

Krautmaster schrieb:
mich für meinen Teil interessieren diese Peakwerte nicht die Bohne. Was hab ich denn davon wenn ich weiß dass meine GPU vorm Netzteil für Millisekunden auch 1kw ziehen kann? Entscheidend ist doch das was der Rechner aus der Dose zieht und was der Stromzähler erfasst. Für den Consumer sind so Messungen wie THG zwar netter Lesestoff - aber mehr aus theoretischer Natur, weniger praxisbezogen.

Ähhh okay, deshalb schrieb ich auch, dass die Peakwerte für den Stromverbrauch irrelevant sind...
Und nein Tomshardware ist nicht nur netter Lesestoff, sondern sie liefern die transparentesten und akkuratesten GPU/CPU Reviews. Ich finde es besonders gut, dass da genau beschrieben wo Probleme liegen, worauf man achten muss und wie diese gelöst werden. Das Ganze sehr nachvollziehbar. Es gibt sogar einen extra Artikel, der sich mit der Leistungsaufnahme von Grafikkarten beschäftigt
http://www.tomshardware.de/leistung...chselwirkung-messung,testberichte-241622.html
Da geht es übrigens unter anderem um die böse R9 295X2
Wie AMD uns mitteilte, ist die TDP der Karte mit maximal 450 Watt spezifiziert - und wenn wir uns die zweite Seite mit Power Tune und der Theorie Erinnerung rufen, dann wissen wir auch, dass diese Angabe nicht nur ein schnöder Schätzwert ist, sondern eine echte Grenze. Beim Gaming messen wir noch knapp unter 430 Watt, so wie von AMD kommuniziert und nicht über 500, wie oft verbreitet:
Es wurden einige Mythen zerstört, und man hat die 295X2 sogar auf einem 500W beQuiet problemlos betrieben ;)

Deshalb ist Toms Hardware für mich die Referenz wenn es um Leistungsaufnahme geht. Den Käse 100-150W höherer Stromverbrauch von AMD Karten, braucht mir keiner zu erzählen. Und der aktuelle Stand der Dinge ist, dass eine Ref 290X durchschnittlich gut 240W verbraucht, während eine Ref GTX980 185W. Doch während AMD's Partnerkarten durch die geringe Übertaktung und bessere Kühlung ebenfalls bei ca. 250W bleiben, ziehen Custom 980er etwa 200W. Hier dagegen beträgt der Unterschied zw. Ref 980 und 290X ~1GHz weit über 100W. Dass die AMD Karte die CPU so auslastet, dass diese so viel Energie verbraucht, kann ich mir kaum vorstellen...

Es wäre gut, wenn sich der Igor dazu äußern würde.
 
es ging ja auch nicht um GTX 980 sondern um GTX 970. Bei HT4U ist bei Custom Modellen auf die GPU allein bezogen schon wie gesagt etwa 40-50W Differenz vorhanden. Mal mehr, mal weniger. Bei Der GTX 970 vermutlich etwas mehr und bei CB kann ich mir durchaus vorstellen dass die stark OC CPU noch einige W ausmacht + entsprechend der Wirkungsgrad des Netzteils. 150W Differenz zwischen custom GTX 970 und custom R9 290X bei selber Performance werden es beim Endanwender aber eher nicht sein.

Edit:

um bei THG zu bleiben

http://www.tomshardware.de/maxwell-...marks-power-target,testberichte-241648-2.html

Hier sind es auch oft 40-80W Unterschied - bei ~10% höherer Performance auf GTX 970 Seite. Wenn du bei 70W noch das Netzteil aufschlägst (sagen wir 90%) dann bist du bei ~77W - dann lastet AMD mit ihrem DX11 Treiber noch die CPU etwas stärker aus und je nach OC eben selbiger werden aus 77W die oft hier genannten 100W bzw etwa der Unterschied den auch CB hier aufzeigt.

Schaut man bei CB, so ist die R9 290X OC Karte auch quasi gleich schnell wie die GTX 970 OC, im THG Test mit nichten, da ist die GTX 970 deutlich vorn, ergo taktet die R9 290X hier im CB test sicher höher als bei bei THG oder aber die GTX 970 entsprechend bei THG höher als bei CB was den Unterschied noch erhöht.

Edit2:

Zusammenfassend sind die Unterschiede die CB bei der Leistungsaufnahme Messung erzielt zwar realistisch, aber dennoch etwas polarisierend. Hier kommen mehrere Dinge zusammen:

-> ggf ein ungünstiges Spiel zur Lasterzeugung welche tendenziell eher Nvidia liegt bzw diese weniger auslastet.
-> die stark OC CPU zusammen mit der höheren CPU Last bei AMDs DX11 Treiber
-> eine Referenz R9 290X die auf GTX 970 OC Niveau getaktet wird und dabei viel verbraucht
oder
-> eine recht schwache GTX 970 OC die konservativ agiert und genügsamer ist als manch andere Custom GTX 970
(eher letzteres da sich die R9 290X auf Niveau der Custom R9 290X Tests bewegt)
 
Zuletzt bearbeitet:
Es können 150W sein, wenn man unterschiedliche Custom-designs verwendet:
Die Asus GTX970 Strix hat ein Powerlimit von 160W. Die MSI 290X läuft mit 300W. Das sind 140W alleine nur durch die Grafikkarte. Effizienzverlust und Co. - und man ist am Ende bei 150W+.

Im Schnitt liegen die Designs bei 100W+.
 
Krautmaster schrieb:
Hier sind es auch oft 40-80W Unterschied - bei ~10% höherer Performance auf GTX 970 Seite. Wenn du bei 70W noch das Netzteil aufschlägst (sagen wir 90%) dann bist du bei ~77W - dann lastet AMD mit ihrem DX11 Treiber noch die CPU etwas stärker aus und je nach OC eben selbiger werden aus 77W die oft hier genannten 100W bzw etwa der Unterschied den auch CB hier aufzeigt.

Es kann doch nicht sein, dass du wirklich hier öffentlich jemandem erzählen willst, dass nun AMDs DX11 Treiber einen Mehrverbrauch von 23 W erzielt - vor allem im Vergleich zu was? Merkst du denn nicht, dass du einfach nur willkürlich gar nicht vorhandene Zahlen zusammen zählst?

23 W durch den Treiber...echt unfassbar was manche sich zusammen phantasieren. Da muss man sich echt langsam fremdschämen.
 
23W? Was sind 23W? 23W können schon locker von Karte A zu B aufkommen bei exakt gleichem Produkt einfach durch unterschiedliche Spannungen und Chipqualitäten. Und was sind 23W bei einer hochgezüchteten OC CPU? Da reicht es wenn ein Kern deutlich mehr an Anschlag geht - gerade bei Ryse. Schau dir doch die i5 2500K Benches an. Ryse is vielleicht gerade deshalb ungünstig da hier die CPU last bei AMD schon höher ist - wenn gleich nicht limitierend.

Siehe CB Testsystem doch an. Bei HT4U kommt die Grafikkarte R9 290X allein auf ~260W max. Das CB System hat nen Verbrauch von 411W @ Last, in anderen Games sogar mehr. Ergo fallen etwa 150W an andere Stelle ab, - ~10% für Netzteil. 23W auf CPU Seite.. da braucht es nicht viel Unterschiede in der CPU Auslastung für.

Wäre interessant wenn man noch die CPU-Auslastung mit aufgenommen hätte. Wenn ein i5 2500k bereits bei Ryse limitiert, dann wird der i7 4770 k auch ganz schön zu arbeiten haben, wenn gleich er auch nicht limitieren mag wie der i5.

Wo kommen denn deiner Meinung nach die 100W Unterschied her? (Es wurde mehrfach aufgezeigt dass eine Custom R9 290X aus dem Handel denselben Gesamtsystem-Verbrauch wie die Referenz OC R9 290X hier im Test erreicht).
Edit:

GTX 980 Auslastung DX11

980_4_11_CPU.png

R9 290X Auslastung DX11

290X_4_11_CPU.png

und CPU

71451.png

Man kann natürlich schwer messen wie viel auf Kappe der CPU geht.
 

Anhänge

  • 71452.png
    71452.png
    22,9 KB · Aufrufe: 411
Zuletzt bearbeitet:
@Daedel in einem Post davor schrieb er ja sogar, der AMD Treiber würde für einen um 47(!!)Watt höheren CPU Verbrauch sorgen :D

Ich mein, ich weiss es nicht , wahrscheinlich erhöht der Treiber die CPU Aufnahme tatsächlich um ein paar Watt, vielleicht sogar um 10W, aber die Zahlen, mit denen so ein Krautmaster oder der Nvidia Mann Sontin herum argumentieren, sind einfach lächerlich.
 
Ich schrieb vor allem dass mehrere Dinge zusammenkommen.

Krautmaster schrieb:
Zusammenfassend sind die Unterschiede die CB bei der Leistungsaufnahme Messung erzielt zwar realistisch, aber dennoch etwas polarisierend. Hier kommen mehrere Dinge zusammen:

-> ggf ein ungünstiges Spiel zur Lasterzeugung welche tendenziell eher Nvidia liegt bzw diese weniger auslastet.
-> die stark OC CPU zusammen mit der höheren CPU Last bei AMDs DX11 Treiber
-> eine Referenz R9 290X die auf GTX 970 OC Niveau getaktet wird und dabei viel verbraucht
oder
-> eine recht schwache GTX 970 OC die konservativ agiert und genügsamer ist als manch andere Custom GTX 970
(eher letzteres da sich die R9 290X auf Niveau der Custom R9 290X Tests bewegt)

schon der Ryse Test mit dem i5 zeigt ja klar auf, dass Ryse hier bei AMD mit dem i5 ausgebremst wird, im Gegensatz zur GTX 980, ergo ist die CPU Last bei AMD deutlich höher (vorallem eben bei Ryse)



Die Frames doppen zu Beginn sicher um 30%, 30% die dem i5 fehlen die er bei der GTX 980 eben zur Verfügung hat. Hier sind es also auf einen i5 2500K gut 30% mehr CPU Last bei AMD. Bezogen auf einen i7 4770k sind es sicher keine 30% mehr, aber genug um gerade OC doch einige W (>10)auszumachen.

Und wie gesagt, da kommen ja mehrere Dinge hinzu. Was CB da bei Leistungsaufnahme aufgezeigt hat ist aus Sicht AMD schon eher ein Worst Case Szenario, wenn gleich sicher nicht absichtlich so gewählt.

Edit: Wo kommen den eurere Meinung nach die 143W Differenz GTC 970 OC zu R9 290X OC @ CB Test Gesamtsystem Last her?
 
Zuletzt bearbeitet:
Es wäre gut, wenn sich der Igor dazu äußern würde.
Das macht er aber sehr ungern, weil er hier eigentlich aus gewissen Gründen besser nur mitlesen sollte.

Was mir allerdings auch ganz persönlich auf dem Herzen liegt:
Die Streuung der Chipgüte ist beim AMD, vor allem aber auch bei Nvidia wirklich extrem. Deshalb sollte man bestimmte Dinge nicht allzu sehr pauschalisieren. Um wirklich belastbare Fakten zu haben, müsste man jeweils einige Karten des gleichen Modells messen und Durchschnittswerte ermitteln. Allein bei einer GTX 980 von Gigabyte habe ich bei identischer Leistung innerhalb der selben Modellreihe über 30 Watt Unterschied messen können. Es ist somit auch immer eine Portion Cherry-Picking und Zufall dabei.

Dass die Referenzkarten der 290 und 290X mit dem doch arg bescheidenen Kühler mit ihren 90°C in den Reviews zudem so hohe Leckströme produzieren, was sich in sehr hohen Leistungsaufnahmen niederschlägt, wird dem Chip und seinen Möglichkeiten ebenfalls nicht wirklich gerecht. Zumal die überall in den Redaktionen benutzen Samples noch aus der ersten oder zweiten Batch stammen, die Qualität aber mittlwerweile deutlich höher liegt. So gesehen finde ich es gut, dass sich Wolfgang neuerer Karten der Boardpartner bedient.

Der Unterschied in der Leistungsaufnahme ist nicht wegzudiskutieren, auch das ist ein Fakt. Nur vergessen wir bitte nicht, wie alt Hawaii mittlerweile ist. Auch hierbei sollte man dann doch fair bleiben. Im Schnitt 50-60 Watt sind immer drin, je nach Kühlung, Chipgüte und Takt sicher auch schon mal mehr. Nur die 100 Watt ++ sind dann doch schon ein wenig arg weltfremd. :)
 
Zuletzt bearbeitet:
Schöner Vergleich. Vor allem wo der 2500 mit rein genommen wurde. Wollte ja bald aufrüsten.
 
@FormatC

Danke für die Ergänzung - bezogen aufs Gesamtsystem oder auf die Karte allein? Zur Custom GTX 970 <-> Custom R9 290X oder <-> GTX 980 Custom?

Die GTX 970 OC hier im Test scheint ja auch eher konservativ zu takten:



1266Mhz sind ja fast schon Sweet Spot bei der GTX 970 ... je nach Sample.

Edit:

Stützt sich auch voll mit THG:

http://www.tomshardware.de/geforce-gtx-970-power-target-boost-analysis,testberichte-241652-3.html
145W Power Target = durchschnittlicher Boost von 1266 Mhz (genau das was CB mit OC testet)





Ergo steht die GTX 970 OC natürlich sehr gut da. Sieht man ja auch an den Werten @ CB.
 
Zuletzt bearbeitet:
Danke für die Ergänzung - bezogen aufs Gesamtsystem oder auf die Karte allein?
Gesamtsystem messe ich nie, da sind einfach zu viele Unwägbarkeiten dabei.

Das fängt schon mit den Mainboards an, deren Leistungsaufnahme auch ganz schön schwanken kann, sogar bei identischer Hardware und gleichen Benchmarks. Heiße oder kalte Spannungswandler sind auch so ein Punkt, der mir bei CPU-Messungen aufgefallen ist. Messe ich über einen verlöteten Shunt nach den VRM, ist alles perfekt reproduzierbar. Messe ich hingegen an den Stromanschlüssen des Boards, dann variiert das manchmal ganz schön. Auf einem Sockel 2011 v.3 und einem übertakteten 5960X waren es bis zu 35 Watt Differenz zwischen den einzelnen Durchläufen! Mal absehen davon, dass die VRM ja eh selbst schon jede elektrische Menge Energie in Wärme umsetzen.
 
Zuletzt bearbeitet:
ja Mainboards sind erfahrungsgemäß mit einer der größten Unschärfe, wobei das hier im test ja alles dasselbe Mainboard sein dürfte.

Naja okay. Also im Schnitt so 50-60W auf GPU only bezogen, am Sweet Spot der GTX 970 also eher mehr + der ungünstige Fall dass gerade Ryse extrem an der CPU nagt (zum Nachteil AMD) + die Netzteil Effizienz von etwa 90% + die Tatsache dass die warme R9 290X OC da weiter weg von ihrem Sweet Spot ist und schon sind die 100-140W an der Steckdose durchaus erklärbar, wenn gleich nicht auf alle Systeme und Games sowie GTX 970 / R9 290X Modelle übertragbar.
 
Könnte durchaus hinkommen, wobei mir 140 Watt too much sind. Ich habe hier in meiner Galerie eine R9 290X Lightning von MSI. Taktet man die auf normale Durchschnittswerte runter, spart man locker15% bei der Leistungsaufnahme, verliert aber nur ca. 4-5% an Gaming-Performance.

Was man auch nicht vergessen sollte:
Der Sweetspot der R9 290(x) liegt deutlich unter 1 GHz! Ich habe mal just4fun eine FirePro W9100 mit einem besseren Kühler versehen und lag danach deutlich unter 175 Watt! Auch so etwas geht mit Hawaii durchaus :D
 
Zuletzt bearbeitet:
vielleicht eine Ryse Eigenart... imho sind hier von der GTX 980 OC zur R9 290X OC auch schon mal 80W Differenz an der GPU drin, je nach dem was das Sample eben schon an Qualität mitbringt und von Game zu Game eben krass unterschiedlich.

CB täte gut daran noch andere Games mit reinzunehmen beim Load Test...
Generell ist der Unterschied bei GTX 970 zu R9 290X bei der Leistungsaufnahme recht hoch bei ComputerBase. Die OC Modelle wurden bei der GTX 970 aber immerhin auch 295W erreicht, ~30W mehr als das OC Modell hier im Test.

Man sieht schon an den Werten im Vergleich zu anderen Karten dass die GTX 970 n schönes Golden Sample sein muss ;)
Ich geb dir aber absolut recht. 140W + sind schon etwas... zumindest etwas was man durch andere Tests relativieren sollte.
 
Zuletzt bearbeitet:
Ich habe einen Teil der Karten direkt aus einem Shop zum Vergleich herangezogen und eben nicht immer nur allein die Hersteller-Samples gemessen. Da tun sich, je nach Hersteller, schon mal Welten auf. Ich kann aber zumindest aus meinen eigenen Gegentests bestätigen, dass Firmen wie Galaxy/KFA2, inno3D und Asus bei Stichproben immer sehr ehrlich abgeschnitten haben. Genauso HIS und Sapphire bei den AMD-Partnern. Bei den anderen, naja... mal so und mal so, meist jedoch so :p
 
joa es kommen eben viele Unterschiede zusammen.

zB https://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/8/

Da sind wir bei der R9 290X Max bei 383W. Im Vergleich schon treffender und immerhin 30W weniger wie in Ryse und der OC Karte hier. Und eine R9 290X (Max) liegt sicher nicht weit von einer 30Mhz höher getakteten R9 290X "OC" von CB entfernt. ^^
 
Wenn man den Takt einer Karte mit Werks-OC selbst manuell runterdrückt, dann muss man natürlich auch die Spannungen anpassen. Tut man das nicht, dann bleibt die Leistungsaufnahme trotz niedrigerem Takt viel zu weit oben. Ich habe das mal am BIOS zweier HIS-Karten getestet, die bis auf die Firmware identisch waren. Die TurboX kam mit deutlich höheren Spannungen.

Ich habe mir seinerzeit ein ungelocktes iTurbo-Tool von HIS aus dem R&D besorgt, mit dem ich die Spannung auch deutlich absenken und nicht nur anheben konnte. Und siehe da - erst danach waren die Karten wieder bei der Leistungsaufnahme mehr oder weniger identisch. Dies trifft aber in erster Linie nur auf AMD-Karten zu. Man hätte vielleicht eine Karte exemplarisch nutzen und eben nicht am Takt spielen sollen. Aber das habe ich weder zu beurteilen noch zu bemängeln. Oder man taktet die Karte hoch, nicht runter.

Boost und Power Tune unterscheiden sich nämlich gerade in diesen Punkten extrem. AMDs Telemetrie funktioniert nämlich umgekehrt wie die von Nvidia. Es ist bei AMD beim Takt und den Spannungen eigentlich mehr oder weniger ein reiner Schutzmechanismus, der erst nach dem Eintreten bestimmter Telemetriefaktoren (Power Estimation, Temperatur) die Taktregelung und die VR beeinflusst, sonst ist immer volle Pulle. Nvidia ist da aus meiner Sicht vor allem bei der Power Estimation und den deutlich flexibleren Boost-Leveln deutlich weiter und schaltet auch viel schneller und feiner abgestuft zwischen den Spannungswerten hin und her. Da liegt aus meiner Sicht auch der Grund für die geringere Leistungsaufnahme, weil man bei den Grünen viel "vorausschauender" fährt und viel öfter auch mal den Gasfuß lupft.
 
Zuletzt bearbeitet:
joa, aber ich weiß nicht in wie fern da CB überhaupt Hand angelegt hat. Die Sapphire Tri X kommt ja bei lächerlichen 20mhz mehr im CB System auch auf 411 W, andere Karten sogar mehr

https://www.computerbase.de/2014-01...-tri-x-oc-test/4/#abschnitt_leistungsaufnahme

is also nicht so dass die R9 290X hier im Test nen mega Ausreißer darstellt.

@Effizienz

In meinen Augen hat sich Nvidia bei Maxwell schlicht mehr an den Desktop CPU orientiert, ergo was hat zB Intel bei Haswell besser gemacht? - genau das, schnellere Lastwechsel/C-State Wechsel und mal eben 50% mehr Effizienz bei Haswell U rausgeholt, bei selber TDP und selber Fertigung.Dazu musste man das Rad nicht neu erfinden aber die Resultate sprechen für sich. Haswell gewann sehr viel bei niedriger / mittlerer Last, genau wie Maxwell.

Edit:
https://www.computerbase.de/2012-09/idf-2012-die-cpu-architektur-haswell-im-detail/

Der Last-Level-Cache erhält nun wie auch CPU-Kerne und GPU eine eigene Taktdomäne, wodurch unterschiedliche Frequenzen möglich sind. Den größten Sprung macht man bei der Leistungsaufnahme im Leerlauf, womit man insbesondere auf höhere Akkulaufzeiten in Mobilgeräten abzielt. Hierbei soll ein verbessertes Power Gating, neue C-States sowie verringerte Umschaltzeiten zwischen den Zuständen ihren Beitrag leisten.

-> Ergebnis:
http://www.anandtech.com/show/7047/the-haswell-ultrabook-review-core-i74500u-tested/5

Normalizing for battery capacity, the improvement due to Haswell is 57.5%.

ich bin gespannt ob AMD bei Fuji an denselben Stellschrauben gedreht hat.
 
Zuletzt bearbeitet:
Die Telemetrie wird sich definitiv ändern. Im Übrigen, wenn man etwas Muße hat, lohnt auch das Studium diverser US-Patente. Das ist frei zugänglich, nur suchen muss man schon selbst. Viel Spaß. ;)
 
Zurück
Oben