Ist der Stromverbrauch in 4K irreführend zur Kostenberechnung in 1080p? Scheinbar ja

Traxton

Cadet 3rd Year
Registriert
Feb. 2008
Beiträge
54
Ich achte seit jeher etwas genauer auf den Stromverbrauch der Grafikkarten. Dabei sind mir in letzter Zeit zwei Artikel in der PCGH 10/15 aufgefallen.

Bevor ich darauf näher eingehe zunächst einmal einleitend:
Wofür kann man die derzeitig im Internet dargestellten Stromverbräuche eigentlich nutzen?
Insbesondere bei den ermittelten Werten in 4K Auflösung.
Dieser Auflösung steht doch direkt gegenüber, dass anscheinend die überwiegende Zahl der gekauften Grafikkarten diese Auflösung nie berechnen müssen. Schaut man sich dazu also einmal die Steam Statistik an. Da wird für Single Monitor noch nicht mal die 4K Auflösung aufgelistet sondern unter OTHER eingegliedert.
Dann gibt es noch Multi Monitor. Aber auch hier ist die Anzahl mit 3 Monitoren wohl als eher gering einzuschätzen. Und auf 2 Monitoren lässt es sich bekanntermaßen schlecht spielen.

In Bezug auf die Sinnhaftigkeit der Stromverbrauchsermittlung in 4K Auflösung, um diese als Kaufberatungsgrundlage zu verwenden, verweise ich einmal auf die PCGH 10/2015.
In dieser wurde in 2 Artikeln einmal der Stromverbrauch der Grafikkarte in 4K Auflösung ermittelt (Seiten 8 – 19) und einmal der Stromverbrauch des Gesamtsystems in 1920x1080 (Seiten 20 – 28) ermittelt. Das Ergebnis ist interessant. Aber hier zunächst die Herangehensweise etc. in den Artikeln:

Im Full HD Artikel
wurden die Spiele GTA 5, The Witcher 3 und F1 2015 gemessen. Leider wurde bei F1 2015 der durchschnittliche Stromverbrauch nicht angegeben und kann daher nicht genutzt werden. Man sieht nur den Graphen mit dem Stromverbrauch zum jeweiligen Zeitpunkt. Eine brauchbare Abschätzung auf den durchschnittlichen Stromverbrauch ist damit quasi unmöglich.

Im 4K Artikel
wurden auch diese Spiele getestet, sowie noch 17 weitere.

Karten und Vorgehensweise:

1080p Artikel:
Stromverbrauch wurde über 13 Minuten (Witcher), 7 Minuten (GTA 5) ermittelt (aktiv spielen)
Evga Geforce GTX 970 FTW ACX 2.0
Sapphire Radeon R9 290 Tri-X OC

4K Artikel:
Stromverbrauch wurde über 15 Minuten ermittelt (aufheizen und rechnen) (stilles Stehen)
Sapphire Radeon R9 390 Nitro
MSI Geforce GTX 970 Gaming 4G

Mir ist bewusst, dass nicht die exakt gleichen Grafikkarten verwendet wurden. Für die Tendenz sollte es dennoch ausreichend sein.

Hier kommen nun die Differenzwerte:
The Witcher 3 4K: R9 390 braucht 95 Watt mehr (Seite 13 im Heft)
The Witcher 3 1080p: R9 290 braucht 25 Watt mehr (Seite 25 im Heft)

GTA 5 4K: R9 390 braucht 90 Watt mehr (Seite 16 im Heft)
GTA 5 1080p: R9 290 braucht 49 Watt mehr (Seite 28 im Heft)

Wie man sieht:
Die Differenz beim Stromverbrauch fällt von 4K auf Full HD um etwa 75 % bzw. 50 %. Dabei wurde, abgesehen von den Grafikkarten, die annahmetechnisch ähnlich sein sollten, die Parameter:
Szenario (von still stehen zu aktiv spielen),
Zeitraum von 15 Minuten auf 13 bzw. 7 Minuten und
Auflösung von 4K auf FullHD geändert.

Daher zum Schluss die Frage:
Wofür können die Stromverbrauchsmessungen in 4K genutzt werden?

Um das Netzteil entsprechend zu dimensionieren. Wahrscheinlich schon.

Um eine Prognose der Stromkosten beim Spielen vorzunehmen. Anscheinend eher nicht.
Schließlich fällt die Differenz in der kleineren Auflösung sowie realistischerem Szenario (aktives Spielen) geringer aus.

Weiteres:
Die GTX 1060 wurde hier in verschiedenen Auflösungen getestet:

GTX 1060 Stromverbrauch.jpg


Angenommen die RX 480 verhält sich analog auch mit dem Faktor von etwa 0,75 bei der Stromaufnahme von 4K zu 1080p. Dann sinkt die absolute Differenz entsprechend auch basierend mit Faktor von 0,75 von 40 Watt auf etwa 30 Watt.
Sinkt die Differenz aber um 50 % bis 75 %, dann... (nun, das ist alles Theorie, aber das wäre mMn mal ein Test wert; natürlich auch für andere Karten; das GTX 970 vs. R9 290/390 Beispiel ist ja schon vorhanden)

Insgesamt muss ich zugeben, dass ich nicht mit so einem starken Einfluss auf den Stromverbrauch durch die Auflösung und dem Szenario gerechnet habe. Das ist mir erst mit dem Artikel in der PCGH aufgefallen.

Ist die derzeitige Darstellung des Stromverbrauchs daher zeitgemäß?
Wenn man bedenkt wie häufig unter Tests von neuen Grafikkarten Kommentare geschrieben werden, die ausdrücklich auf den Stromverbrauch hinweisen und die Kosten hervorheben ist es eventuell besser die Leser zusätzlich mit dem tatsächlich (realistisches Szenario bei 1080p) bei Spielen verbrauchten Strom zu konfrontieren oder zumindestens hervorheben, dass die 4K Werte unter Umständen nicht für FullHD Werte gelten. Es werden schließlich gerne die 1080p Performance-Werte mit den 4K-Stromverbrauchswerten kombiniert und darauf basierend eine Kaufempfehlung getroffen.
Evtl. ist dies ein grundlegender Fehler?!

Mein Fazit:
Anscheinend sorgt die hohe Auflösung für stärkere Differenzen zwischen den Grafikkarten als es unter Full HD der Fall ist. Dabei werden die meisten immer noch in Full HD spielen. Die Ermittlung des 4K Stromverbrauchs ist daher in meinen Augen als Prognose für die Stromkosten tendenziell irreführend.

Wenn jemand Quellen hat, die ähnliche Unterschiede ermittelt haben oder aber keinen Unterschied festgestellt haben, bitte nicht vorenthalten. ;)
 
1080p Artikel:
Stromverbrauch wurde über 13 Minuten (Witcher), 7 Minuten (GTA 5) ermittelt (aktiv spielen)
4K Artikel:
Stromverbrauch wurde über 15 Minuten ermittelt (aufheizen und rechnen) (stilles Stehen)

Wie wir sehen versuchst du hier Äpfel mit Birnen zu vergleichen. Ohne identischen Aufbau macht dein Thread keinen Sinn.
 
@ Shaav

Sehe ich nicht so, genau diese Änderung ist Sinn und Zweck des Tests. ;)
 
Ist doch nix neues nur Fachgerechte Tests sind aufwendig ... Und solange nur AMD der benachteiligte ist ( NV verliert halt Leistung weill unter 4K dann der Takt sinkt aber verbrauch klebt am Powertarget )

Deshalb dürfte es jetzt aber zumindest die 480 auch kaum mehr betreffen.
 
Die AMD-Karten haben das Problem, dass sie unter Full HD schlecht ausgelastet werden und früh in das CPU-Limit laufen. Unter 4k können sie dann ihre Rohleistung zeigen, bei entsprechend erhöhtem Stromverbrauch. Wie schon von Knuddelbearli erwähnt ist der Effekt bei der RX480 wegen der Verbesserungen in GCN 4 etwas gemildert.
 
Nolag das ist eine einseitige Auslegung. Ebenso gut könnte man sagen das NV in 1080 gut ist aber dort wo man wirklich die Leistung bräuchte, unter 4K, gegenüber AMD verliert
 
Das ganze sind doch eh nur Richtwerte um eine Einstufung machen zu können. Das ganze bezieht sich eh auf eine einzige Testszene, die bei jedem System und Spieler eh wieder anders ausfallen dürfte.
 
Ja, ich hätte erwähnen können, dass die nVidia Karten dann unter 4k stärker einbrechen, weil sie Bandbreitenkrüppel sind.
 
Knuddelbearli schrieb:
Deshalb dürfte es jetzt aber zumindest die 480 auch kaum mehr betreffen.

Da hast du wahrscheinlich Recht,
nur leider kann ich aufgrund dessen, dass häufig in 4K gemessen wird, nur schwer einschätzen wie hoch der absolute Unterschied nun letztendlich in meiner Auflösung von 1920x1200 ist. Mich hat es einfach nur gewundert, dass die Unterschiede so groß ausfallen. Damit hatte ich einfach nicht gerechnet. :p
Wenn man bedenkt, dass jetzt erst die GTX 1070 und GTX 1080 als richtige 4K Karten angesehen werden, verwundert mich die Wahl von 4K zur Bestimmung des Stromverbrauchs seit durchaus längerer Zeit noch mehr.
Und dann werden die Grafikkarten manchmal performancetechnisch nur in Full HD getestet, aber in 4K der Stromverbrauch?! :freak:
 
Manche Seiten führen FPS/Watt Tests aus - dann würde ich halt die lesen.
Irgendwie geht mir hier eh der Sinn aus.
 
Die Unterschiede in der Stromaufnahme sind bei den neuen Karten so groß, weil sie unter Full HD nicht mehr voll ausgelastet werden.
 
Darkscream schrieb:
Das ganze sind doch eh nur Richtwerte um eine Einstufung machen zu können. Das ganze bezieht sich eh auf eine einzige Testszene, die bei jedem System und Spieler eh wieder anders ausfallen dürfte.

Ich habe die Werte bisher auch als Richtwerte gesehen. Aber auch eben ansatzweise für eine Prognose für die zu erwartenden Stromkosten. Was aber nützt mir das wenn die absolute Differenz in FullHD grundsätzlich geringer ausfällt?

Darkscream schrieb:
Manche Seiten führen FPS/Watt Tests aus - dann würde ich halt die lesen.
Irgendwie geht mir hier eh der Sinn aus.

Und die basieren wieder auf 4K?, bzw. unrealistischen Szenarios (blöde Rumstehen)? Davon ab, bringen mir diese Werte auch nichts, wenn im Falle der R9 390/ GTX 970 sich gerade diese Werte in 1080p verschieben. Außerdem zahle ich den Strom für einen absoluten Unterschied in kW/h und nicht für einen relativen Unterschied. ;)
 
Hat eigentlich schon jemand erwähnt, dass in Mini-Auflösungen die anderen Komponenten mehr arbeiten dürfen, und damit mehr Strom gebrauchen? Wenn die Graka in 4K nur 60 FPS schafft, in FHD aber 160 ... na wer muss da mehr Ackern um das zu stemmen?



Ach ja, ist unrealistisches rumstehen^^
 
Zuletzt bearbeitet:
Nun...beim "blöd Rumstehen" kommen sicher die vergleichbarsten Werte raus weil die Szenen absolut identisch sind.
Da man vergleichen will sicher keine dumme Idee.
 
Seit wann hat die Auflösung direkt was mit dem Stromverbrauch zu tun? Der Stromverbrauch einer Komponente errechnet sich aus einer komplizierteren Formel in die Last-Verbrauch, Ruhe-Verbrauch, Last, irgendwelche Widerstände und nen paar pseudozufällige Zahlen einfließen. Der Stromverbrauch eines Systems ist die Summe aller Komponenten berechnet nach diesen Kriterien.

Folglich: Lastest du GPU XYZ in FullHD zu 100% aus, verbraucht sie k Watt. Lastest du sie aber in 4K zu 100% aus, verbraucht sie ebenfalls k Watt. Der GPU ist es doch Latte, was sie berechnet, Last ist Last. Schaffst du in FullHD keine 100%, dann sinkt der Verbrauch halt. Wie HisN aber schon korrekt anmerkte: Irgendwas limitiert IMMER. Folglich ist vermutlich die CPU im Limit, wenn die GPU keine 100% Last mehr schafft. Und auch in diesem Beispiel kann man nicht mehr sagen, geringere Auflösung = geringerer Verbrauch. Denn ein FX-8590 wird unter Last deutlich mehr Strom verbrauchen als eine R5 230 an seiner Seite. Umgekehrt verbraucht ein i3-6100 deutlich weniger unter Last als eine R9 295X2.

Man wählt also zur Ermittlung des GPU-Verbrauchs bewusst Szenarien, in denen die GPU zu 100% ausgelastet und durch keine anderen Komponenten gebremst wird - denn nur so lässt sich der GPU-Verbrauch annähernd unverfälscht zeigen. Und das sind nunmal Szenarien mit abartigen Auflösungen und gigantischen Details. Ist die GPU-Auslastung mal bei 100% und mal bei 50% sind die Werte a) nicht mehr vergleichbar und b) falsch, da das Ergebnis ein zufälliger Wert ist, der nicht mehr den Verbrauch wiederspiegelt.

Sieh es als "maximaler Verbrauch der Testkarte im Testsystem" und orientiere dich dann am Testsystem, ob dein Verbrauch ähnlich ausfällt, oder höher / niedriger. Den exakten Verbrauch kannst du ohnehin nicht vorher bestimmen, weil jedes Stück Hardware physikalisch einzigartig ist.
 
HisN schrieb:
Hat eigentlich schon jemand erwähnt, dass in Mini-Auflösungen die anderen Komponenten mehr arbeiten dürfen, und damit mehr Strom gebrauchen? Wenn die Graka in 4K nur 60 FPS schafft, in FHD aber 160 ... na wer muss da mehr Ackern um das zu stemmen?


Bitte rechnen sie das in Euro/Jahr um :-)

Ach ja, ist unrealistisches rumstehen^^

Vielen Dank schonmal für deinen Einsatz. :)
Man sieht vor allen Dingen schonmal den Unterschied von 4K still rumstehen auf 1080p still rumstehen. Sehr schön. Jetzt wäre es nur noch ultimativ genial, wenn der 1080p Wert (still rumstehen) mit 1080p (aktiv spielen) verglichen werden würde. Ob sich dieser dann nochmals ändert. Das erwarte ich jetzt aber nicht von dir. Das wäre zu viel verlangt. :)
Zum Vergleich (wissenschaftlich) ist dein Wert also super zu gebrauchen. (Nur ein Parameter geändert) :D . Das vermisse ich manchmal bei so Artikeln wo mehrere Werte auf einmal geändert werden, anstatt immer nur einen Parameter zu ändern.

Also, beim schnellen Überfliegen deiner Werte unterstützen diese also die These, dass die Werte bei den GPUs in 1080p sich angleichen und dann meinetwegen die CPU stärker ausgelastet wird. Zudem sinkt der Wert des Stromverbrauchs bei dir von 408 Watt in 4K auf 368 Watt in Full HD. Ich hoffe ich habe die richtigen Werte genommen :p .
Also 40 Watt weniger. Dein Einwand ist jetzt, dass die CPU stärker belastet wird. Aber dies bedeutet doch zusätzlich, dass der Stromverbrauch der Grafikkarte um mehr als 40 Watt gefallen sein muss, oder? :D
Dies führt doch weiter dazu, dass für alle Grafikkarten der Anteil des Stromverbrauchs von 4K auf 1080p fällt und die von der CPU steigt. Aber der Wert der CPU müsste doch unabhängig von der Grafikkarte steigen, oder nicht?

Darkscream schrieb:
Nun...beim "blöd Rumstehen" kommen sicher die vergleichbarsten Werte raus weil die Szenen absolut identisch sind.
Da man vergleichen will sicher keine dumme Idee.

Fairerweise muss man die PCGH dahingehend verteidigen, dass sie ausdrücklich darauf geachtet haben und versucht haben eben dieses Problem zu eliminieren. Die Spielszene wird genau beschrieben. Klar, kleine Differenzen werden bleiben. Aber ob diese dann noch einen großen (relevanten?) Einfluss haben? Mir geht es weniger um "Scheingenauigkeit" anstatt halbwegs brauchbare Prognosewerte. ;)
 
Gute Ausführung SoDa

Hier die Bestätigung, wenn ich eine Anwendung finde, die die Graka auch in FHD gut auslastet, dann rückt der Verbrauch UHD/FHD sehr nahe zusammen. 8W Unterschied geht schon langsam Richtung Messungenauigkeit (also der Zeitpunkt andem ich den Screenshot gemacht habe, Zufälligerweise eventuell gerade der Wert umgesprungen oder so).



Immer noch rumstehen. Ich glaub ich habe auch kein Messgerät bzw. eine Mess-Strecke mit der ich einen guten Vergleich über z.b. 10 Minuten hinbekommen würde.
 
Zuletzt bearbeitet:
SoDaTierchen schrieb:
Seit wann hat die Auflösung direkt was mit dem Stromverbrauch zu tun? Der Stromverbrauch einer Komponente errechnet sich aus einer komplizierteren Formel in die Last-Verbrauch, Ruhe-Verbrauch, Last, irgendwelche Widerstände und nen paar pseudozufällige Zahlen einfließen. Der Stromverbrauch eines Systems ist die Summe aller Komponenten berechnet nach diesen Kriterien.

Folglich: Lastest du GPU XYZ in FullHD zu 100% aus, verbraucht sie k Watt. Lastest du sie aber in 4K zu 100% aus, verbraucht sie ebenfalls k Watt. Der GPU ist es doch Latte, was sie berechnet, Last ist Last. Schaffst du in FullHD keine 100%, dann sinkt der Verbrauch halt. Wie HisN aber schon korrekt anmerkte: Irgendwas limitiert IMMER. Folglich ist vermutlich die CPU im Limit, wenn die GPU keine 100% Last mehr schafft. Und auch in diesem Beispiel kann man nicht mehr sagen, geringere Auflösung = geringerer Verbrauch. Denn ein FX-8590 wird unter Last deutlich mehr Strom verbrauchen als eine R5 230 an seiner Seite. Umgekehrt verbraucht ein i3-6100 deutlich weniger unter Last als eine R9 295X2.

Man wählt also zur Ermittlung des GPU-Verbrauchs bewusst Szenarien, in denen die GPU zu 100% ausgelastet und durch keine anderen Komponenten gebremst wird - denn nur so lässt sich der GPU-Verbrauch annähernd unverfälscht zeigen. Und das sind nunmal Szenarien mit abartigen Auflösungen und gigantischen Details. Ist die GPU-Auslastung mal bei 100% und mal bei 50% sind die Werte a) nicht mehr vergleichbar und b) falsch, da das Ergebnis ein zufälliger Wert ist, der nicht mehr den Verbrauch wiederspiegelt.

Sieh es als "maximaler Verbrauch der Testkarte im Testsystem" und orientiere dich dann am Testsystem, ob dein Verbrauch ähnlich ausfällt, oder höher / niedriger. Den exakten Verbrauch kannst du ohnehin nicht vorher bestimmen, weil jedes Stück Hardware physikalisch einzigartig ist.

Zum ersten Abschnitt:
Klar sind die verschiedenen Lastzustände relevant. Aber sind die Lastszenarios Idle, Video schauen besonders tückisch in der Ermittlung? In meinen Augen eher nicht. Die greife ich ja auch nicht an. ;)
Gerade die Spielverbrauchsettings sind mMn besonders schwierig.
Denn für den Stromverbrauch sind zwei Faktoren wichtig. Einmal das Messequipment bzw. das Ermitteln der Werte (Messmethodik) und auf der anderen Seite das Szenario. Dieses sollte halbwegs repräsentativ sein.

Zum zweiten Abschnitt:
Widerspricht dies den beobachteten Werten zwischen 4K und 1080p? Glaube nicht. Wenn doch erleuchte mich. :p

Zum dritten Abschnitt:
Aber dann sind die Performancewerte in 1080p doch auch ein zufälliger Wert und sollte gar nicht mehr ermittelt werden?
Also zumindestens sind die 4K Stromverbrauchswerte dann nicht kombinierbar mit den 1080p Performancewerten?

Zum vierten Abschnitt:
Mir ist doch soweit bewusst, dass die Werte nicht exakt passen. Thema: Scheingenauigkeit
Aber was bringt mir der Peak-Wert? wenn dieser Wert für Full HD im Schnitt zu hoch ist?
 
Traxton schrieb:
und auf der anderen Seite das Szenario. Dieses sollte halbwegs repräsentativ sein.

Was sehr subjektiv ausfallen könnte :-)
 
HisN schrieb:
Hier die Bestätigung, wenn ich eine Anwendung finde, die die Graka auch in FHD gut auslastet, dann rückt der Verbrauch UHD/FHD sehr nahe zusammen. 8W Unterschied geht schon langsam Richtung Messungenauigkeit (also der Zeitpunkt andem ich den Screenshot gemacht habe, Zufälligerweise eventuell gerade der Wert umgesprungen oder so).

Immer noch rumstehen. Ich glaub ich habe auch kein Messgerät bzw. eine Mess-Strecke mit der ich einen guten Vergleich über z.b. 10 Minuten hinbekommen würde.

So, also haben wir jetzt einen Unterschied von 8 Watt, der Anteil der CPU wird aber in Relation gestiegen sein, wenn ich mir die Werte so anschauen, und die Werte der GPU relativ gesunken. Also sinkt der Verbrauch der Grafikkarte absolut schonmal.
Aber damit wäre der Gesamtsystemverbrauch bei 4K nicht mehr per se irrelevant für 1080p.
Allerdings wären die ermittelten Werte, bei denen die Grafikkarte isoliert betrachtet wird, dann wiederum unpraktisch.

Jetzt ist das natürlich zudem mit "nur" einer Grafikkarte betrachtet. Interessant wäre jetzt ja das Verhältnis zwischen den AMD Karten und den NVidia Karten, da der Aufbau der Chips unterschiedlich ist. Dies hat der PCGH Artikel ja gemacht? Also sind die Werte doch nicht so falsch? Bzw. die ermittelte Diskrepanz.

HisN schrieb:
Was sehr subjektiv ausfallen könnte :-)

Aber ist stilles Rumstehen auf der Skala der Subjektivität nicht noch höher einzustufen? ;)
 
Zurück
Oben