Ich achte seit jeher etwas genauer auf den Stromverbrauch der Grafikkarten. Dabei sind mir in letzter Zeit zwei Artikel in der PCGH 10/15 aufgefallen.
Bevor ich darauf näher eingehe zunächst einmal einleitend:
Wofür kann man die derzeitig im Internet dargestellten Stromverbräuche eigentlich nutzen?
Insbesondere bei den ermittelten Werten in 4K Auflösung.
Dieser Auflösung steht doch direkt gegenüber, dass anscheinend die überwiegende Zahl der gekauften Grafikkarten diese Auflösung nie berechnen müssen. Schaut man sich dazu also einmal die Steam Statistik an. Da wird für Single Monitor noch nicht mal die 4K Auflösung aufgelistet sondern unter OTHER eingegliedert.
Dann gibt es noch Multi Monitor. Aber auch hier ist die Anzahl mit 3 Monitoren wohl als eher gering einzuschätzen. Und auf 2 Monitoren lässt es sich bekanntermaßen schlecht spielen.
In Bezug auf die Sinnhaftigkeit der Stromverbrauchsermittlung in 4K Auflösung, um diese als Kaufberatungsgrundlage zu verwenden, verweise ich einmal auf die PCGH 10/2015.
In dieser wurde in 2 Artikeln einmal der Stromverbrauch der Grafikkarte in 4K Auflösung ermittelt (Seiten 8 – 19) und einmal der Stromverbrauch des Gesamtsystems in 1920x1080 (Seiten 20 – 28) ermittelt. Das Ergebnis ist interessant. Aber hier zunächst die Herangehensweise etc. in den Artikeln:
Im Full HD Artikel
wurden die Spiele GTA 5, The Witcher 3 und F1 2015 gemessen. Leider wurde bei F1 2015 der durchschnittliche Stromverbrauch nicht angegeben und kann daher nicht genutzt werden. Man sieht nur den Graphen mit dem Stromverbrauch zum jeweiligen Zeitpunkt. Eine brauchbare Abschätzung auf den durchschnittlichen Stromverbrauch ist damit quasi unmöglich.
Im 4K Artikel
wurden auch diese Spiele getestet, sowie noch 17 weitere.
Karten und Vorgehensweise:
1080p Artikel:
Stromverbrauch wurde über 13 Minuten (Witcher), 7 Minuten (GTA 5) ermittelt (aktiv spielen)
Evga Geforce GTX 970 FTW ACX 2.0
Sapphire Radeon R9 290 Tri-X OC
4K Artikel:
Stromverbrauch wurde über 15 Minuten ermittelt (aufheizen und rechnen) (stilles Stehen)
Sapphire Radeon R9 390 Nitro
MSI Geforce GTX 970 Gaming 4G
Mir ist bewusst, dass nicht die exakt gleichen Grafikkarten verwendet wurden. Für die Tendenz sollte es dennoch ausreichend sein.
Hier kommen nun die Differenzwerte:
The Witcher 3 4K: R9 390 braucht 95 Watt mehr (Seite 13 im Heft)
The Witcher 3 1080p: R9 290 braucht 25 Watt mehr (Seite 25 im Heft)
GTA 5 4K: R9 390 braucht 90 Watt mehr (Seite 16 im Heft)
GTA 5 1080p: R9 290 braucht 49 Watt mehr (Seite 28 im Heft)
Wie man sieht:
Die Differenz beim Stromverbrauch fällt von 4K auf Full HD um etwa 75 % bzw. 50 %. Dabei wurde, abgesehen von den Grafikkarten, die annahmetechnisch ähnlich sein sollten, die Parameter:
Szenario (von still stehen zu aktiv spielen),
Zeitraum von 15 Minuten auf 13 bzw. 7 Minuten und
Auflösung von 4K auf FullHD geändert.
Daher zum Schluss die Frage:
Wofür können die Stromverbrauchsmessungen in 4K genutzt werden?
Um das Netzteil entsprechend zu dimensionieren. Wahrscheinlich schon.
Um eine Prognose der Stromkosten beim Spielen vorzunehmen. Anscheinend eher nicht.
Schließlich fällt die Differenz in der kleineren Auflösung sowie realistischerem Szenario (aktives Spielen) geringer aus.
Weiteres:
Die GTX 1060 wurde hier in verschiedenen Auflösungen getestet:
Angenommen die RX 480 verhält sich analog auch mit dem Faktor von etwa 0,75 bei der Stromaufnahme von 4K zu 1080p. Dann sinkt die absolute Differenz entsprechend auch basierend mit Faktor von 0,75 von 40 Watt auf etwa 30 Watt.
Sinkt die Differenz aber um 50 % bis 75 %, dann... (nun, das ist alles Theorie, aber das wäre mMn mal ein Test wert; natürlich auch für andere Karten; das GTX 970 vs. R9 290/390 Beispiel ist ja schon vorhanden)
Insgesamt muss ich zugeben, dass ich nicht mit so einem starken Einfluss auf den Stromverbrauch durch die Auflösung und dem Szenario gerechnet habe. Das ist mir erst mit dem Artikel in der PCGH aufgefallen.
Ist die derzeitige Darstellung des Stromverbrauchs daher zeitgemäß?
Wenn man bedenkt wie häufig unter Tests von neuen Grafikkarten Kommentare geschrieben werden, die ausdrücklich auf den Stromverbrauch hinweisen und die Kosten hervorheben ist es eventuell besser die Leser zusätzlich mit dem tatsächlich (realistisches Szenario bei 1080p) bei Spielen verbrauchten Strom zu konfrontieren oder zumindestens hervorheben, dass die 4K Werte unter Umständen nicht für FullHD Werte gelten. Es werden schließlich gerne die 1080p Performance-Werte mit den 4K-Stromverbrauchswerten kombiniert und darauf basierend eine Kaufempfehlung getroffen.
Evtl. ist dies ein grundlegender Fehler?!
Mein Fazit:
Anscheinend sorgt die hohe Auflösung für stärkere Differenzen zwischen den Grafikkarten als es unter Full HD der Fall ist. Dabei werden die meisten immer noch in Full HD spielen. Die Ermittlung des 4K Stromverbrauchs ist daher in meinen Augen als Prognose für die Stromkosten tendenziell irreführend.
Wenn jemand Quellen hat, die ähnliche Unterschiede ermittelt haben oder aber keinen Unterschied festgestellt haben, bitte nicht vorenthalten.
Bevor ich darauf näher eingehe zunächst einmal einleitend:
Wofür kann man die derzeitig im Internet dargestellten Stromverbräuche eigentlich nutzen?
Insbesondere bei den ermittelten Werten in 4K Auflösung.
Dieser Auflösung steht doch direkt gegenüber, dass anscheinend die überwiegende Zahl der gekauften Grafikkarten diese Auflösung nie berechnen müssen. Schaut man sich dazu also einmal die Steam Statistik an. Da wird für Single Monitor noch nicht mal die 4K Auflösung aufgelistet sondern unter OTHER eingegliedert.
Dann gibt es noch Multi Monitor. Aber auch hier ist die Anzahl mit 3 Monitoren wohl als eher gering einzuschätzen. Und auf 2 Monitoren lässt es sich bekanntermaßen schlecht spielen.
In Bezug auf die Sinnhaftigkeit der Stromverbrauchsermittlung in 4K Auflösung, um diese als Kaufberatungsgrundlage zu verwenden, verweise ich einmal auf die PCGH 10/2015.
In dieser wurde in 2 Artikeln einmal der Stromverbrauch der Grafikkarte in 4K Auflösung ermittelt (Seiten 8 – 19) und einmal der Stromverbrauch des Gesamtsystems in 1920x1080 (Seiten 20 – 28) ermittelt. Das Ergebnis ist interessant. Aber hier zunächst die Herangehensweise etc. in den Artikeln:
Im Full HD Artikel
wurden die Spiele GTA 5, The Witcher 3 und F1 2015 gemessen. Leider wurde bei F1 2015 der durchschnittliche Stromverbrauch nicht angegeben und kann daher nicht genutzt werden. Man sieht nur den Graphen mit dem Stromverbrauch zum jeweiligen Zeitpunkt. Eine brauchbare Abschätzung auf den durchschnittlichen Stromverbrauch ist damit quasi unmöglich.
Im 4K Artikel
wurden auch diese Spiele getestet, sowie noch 17 weitere.
Karten und Vorgehensweise:
1080p Artikel:
Stromverbrauch wurde über 13 Minuten (Witcher), 7 Minuten (GTA 5) ermittelt (aktiv spielen)
Evga Geforce GTX 970 FTW ACX 2.0
Sapphire Radeon R9 290 Tri-X OC
4K Artikel:
Stromverbrauch wurde über 15 Minuten ermittelt (aufheizen und rechnen) (stilles Stehen)
Sapphire Radeon R9 390 Nitro
MSI Geforce GTX 970 Gaming 4G
Mir ist bewusst, dass nicht die exakt gleichen Grafikkarten verwendet wurden. Für die Tendenz sollte es dennoch ausreichend sein.
Hier kommen nun die Differenzwerte:
The Witcher 3 4K: R9 390 braucht 95 Watt mehr (Seite 13 im Heft)
The Witcher 3 1080p: R9 290 braucht 25 Watt mehr (Seite 25 im Heft)
GTA 5 4K: R9 390 braucht 90 Watt mehr (Seite 16 im Heft)
GTA 5 1080p: R9 290 braucht 49 Watt mehr (Seite 28 im Heft)
Wie man sieht:
Die Differenz beim Stromverbrauch fällt von 4K auf Full HD um etwa 75 % bzw. 50 %. Dabei wurde, abgesehen von den Grafikkarten, die annahmetechnisch ähnlich sein sollten, die Parameter:
Szenario (von still stehen zu aktiv spielen),
Zeitraum von 15 Minuten auf 13 bzw. 7 Minuten und
Auflösung von 4K auf FullHD geändert.
Daher zum Schluss die Frage:
Wofür können die Stromverbrauchsmessungen in 4K genutzt werden?
Um das Netzteil entsprechend zu dimensionieren. Wahrscheinlich schon.
Um eine Prognose der Stromkosten beim Spielen vorzunehmen. Anscheinend eher nicht.
Schließlich fällt die Differenz in der kleineren Auflösung sowie realistischerem Szenario (aktives Spielen) geringer aus.
Weiteres:
Die GTX 1060 wurde hier in verschiedenen Auflösungen getestet:
Angenommen die RX 480 verhält sich analog auch mit dem Faktor von etwa 0,75 bei der Stromaufnahme von 4K zu 1080p. Dann sinkt die absolute Differenz entsprechend auch basierend mit Faktor von 0,75 von 40 Watt auf etwa 30 Watt.
Sinkt die Differenz aber um 50 % bis 75 %, dann... (nun, das ist alles Theorie, aber das wäre mMn mal ein Test wert; natürlich auch für andere Karten; das GTX 970 vs. R9 290/390 Beispiel ist ja schon vorhanden)
Insgesamt muss ich zugeben, dass ich nicht mit so einem starken Einfluss auf den Stromverbrauch durch die Auflösung und dem Szenario gerechnet habe. Das ist mir erst mit dem Artikel in der PCGH aufgefallen.
Ist die derzeitige Darstellung des Stromverbrauchs daher zeitgemäß?
Wenn man bedenkt wie häufig unter Tests von neuen Grafikkarten Kommentare geschrieben werden, die ausdrücklich auf den Stromverbrauch hinweisen und die Kosten hervorheben ist es eventuell besser die Leser zusätzlich mit dem tatsächlich (realistisches Szenario bei 1080p) bei Spielen verbrauchten Strom zu konfrontieren oder zumindestens hervorheben, dass die 4K Werte unter Umständen nicht für FullHD Werte gelten. Es werden schließlich gerne die 1080p Performance-Werte mit den 4K-Stromverbrauchswerten kombiniert und darauf basierend eine Kaufempfehlung getroffen.
Evtl. ist dies ein grundlegender Fehler?!
Mein Fazit:
Anscheinend sorgt die hohe Auflösung für stärkere Differenzen zwischen den Grafikkarten als es unter Full HD der Fall ist. Dabei werden die meisten immer noch in Full HD spielen. Die Ermittlung des 4K Stromverbrauchs ist daher in meinen Augen als Prognose für die Stromkosten tendenziell irreführend.
Wenn jemand Quellen hat, die ähnliche Unterschiede ermittelt haben oder aber keinen Unterschied festgestellt haben, bitte nicht vorenthalten.