CPU Stromkosten

nebulein

Admiral
Registriert
Jan. 2011
Beiträge
8.743
Hallo,

ich dachte ich mache dazu mal ein Thema auf. Der enorme Verbrauch einiger CPU´s ist ja momentan in aller Munde, aber niemand kann genau sagen wieviel mehr einen diese CPU denn überhaupt kostet. Deswegen dachte ich ich mache diesen Thread mal auf und fange einfach mal an:

Als erstes benötigen wir die Verbräuche. Dazu bediene ich mich des Testsystems und der aktuellen Verbräuche hier auf CB. Damit haben wir zwar nur Durchschnittswerte aber so ungefähr können wir damit schonmal rechnen:

https://www.computerbase.de/artikel...est.1581/seite-19#abschnitt_leistungsaufnahme

Zur Berechnung benutze ich die Differenz aus Idle-Volllast damit wir einen guten Vergleich haben. Die Testkandidaten:

I5 2500k 74W
I7 2600k 88W
X6 1100T 114W
FX 8150 143W

Die Werte beziehen sich auf ein komplettes System und nicht nur die CPU. Hierzu schaut bitte auf das aktuelle CB Testsystem.

Ich hätte noch gern den I3 mit rein genommen und dann auch den FX 4100 aber für den I3 gibts dort leider keine Werte.

Ich gehe davon aus, dass man 6 Stunden am Tag am Rechner sitzt. Beim einen wirds mehr sein beim andern weniger der eine arbeitet 6 Stunden Rechner der andere zockt 6 Stunden am Rechner. Deswegen habe ich mir Durchschnittswerte gesucht.

Zur Berechnung benötigen wir jetzt noch den Preis pro Kilowattstunde. Ich hatte dazu mit 20 Cent pro KWh gerechnet in einem anderen Thread, aber eigentlich ist das verkehrt, denn der deutsche Durchnitt ist momentan bei 24,95 Cent pro KWh. Siehe dazu:
http://de.wikipedia.org/wiki/Strompreis#J.C3.A4hrlicher_Durchschnittsstrompreis_in_Deutschland

Für die Berechnung habe ich folgenden Stromrechner benutzt:
http://www.stromverbrauch-berechnen.com/

CPU Watt St/T Tag Woche Monat Jahr
I5 2500k 74 W 6 h 0.11 € 0.78 € 3.32 € 40.43 €

CPU Watt St/T Tag Woche Monat Jahr
I7 2600k 88 W 6 h 0.13 € 0.92 € 3.95 € 48.08 €

CPU Watt St/T Tag Woche Monat Jahr
PII X6 114 W 6 h 0.17 € 1.19 € 5.12 € 62.29 €

CPU Watt St/T Tag Woche Monat Jahr
FX 8150 143 W 6 h 0.21 € 1.50 € 6.42 € 78.14 €

Das heisst ein FX braucht ca. 30 € pro Jahr mehr Strom als ein I7 2600k System. Oder er verursacht ungefähr das doppelte an Kosten pro Jahr als ein I5 2500k.

Edit:

Lässt sich leider nicht schöner formatieren so, ich mach heut abend mal ne Tabelle da drauf und dann nen Screenshot rein.
 
Zuletzt bearbeitet:
Ich finde das Thema ganz gut.

Aber ich würde sagen, dass der Stromverbrauch falsch gerechnet ist.

Weil du darfst ja nich nur das Delta zwischen Min und Max Verbrauch nehmen, sondern der braucht ja schon was im idle. Das musst du zum Verbrauch dazu addieren.

Beispiel:
PC1 100 Watt Idle 200 Watt Leistung
PC2 200 Watt Idle 300 Watt Leistung

die beiden kosten bei dir im Jahr das gleiche!?

Edit:
du müsstest also eher nehmen idle Leistungsaufnahme + 50% der Differenz.
 
Zuletzt bearbeitet:
nebulein schrieb:
Zur Berechnung benutze ich die Differenz aus Idle-Volllast damit wir einen guten Vergleich haben.

Das heisst ein FX braucht ca. 30 € pro Jahr mehr Strom als ein I7 2600k System. Oder er verursacht ungefähr das doppelte an Kosten pro Jahr als ein I5 2500k.

Kapier ich nicht. Was hat das mir den Kosten zu tun. Ein schnellerer Prozessor ist bei gleicher Aufgabe geringer belastet.
 
nimm mal noch last dazu das sind doch nur die IDLE verbräuche so 2h vollast
 
ja eigtl gute idee aber nicht wirklich gut umgesetzt

du kannsst ja nicht aus der idle-volllast differenz den tatschlichen stromverbrauch ausrechnen...
um wirkliche werte raus zu bekommen müsste man vllt 4h im idlestromverbrauch rechnen und 2h bei ca. 70%....
ist aber eher schwierig so einen wirklich guten wert raus zu bekommen, der auch was aussagt, da die cpu's bei gleichen spielen gemessen werden müssen, aber auch da unterschiedlich ausgelastet werden (z.b. wird der i7 nicht so stark ausgelastet wie der i5, verbraucht aber trotzdem mehr....)

da müsste man lange drüber nachdenken wie man einen wirklich aussagekräftigen wert raus bekommt...
 
Die einzige Möglichkeit ist wohl eine Langzeitstudie, in der man den wirklichen Stromverbrauch von Systemen bei welchen nur die CPU (und das Mainboard) unterschiedlich ist misst.
Aber auch da kommen schon wieder Faktoren wie die unterschiedlichen Mainboards, welche sich aus den unterschiedlichen Sockeln (AMD/Intel) ergeben, hinzu.


MfG
 
Ja finde auch das es eine Milchmädchen Rechnung ist. Wenn ich z.B. am Rechner arbeite könnte eine schwache CPU Volllast laufen und eine Starke CPU noch im idle oder zumindest noch in der zweiten Taktstufe...
dann würde die Schwächere CPU die unter Volllast viel weniger verbraucht am Ende viel mehr verbrauchen...
und es gibt bestimmt 100 weiter Schätzungen die man so nicht erfassen kann....
 
Ich denke, da kommt es auch auf den Zeitfaktor an.

Eine Endlosschleife von Berechnungen auf zwei verschiedenen CPUs für eine Stunde durchzuziehen wird auf dem leistungsstärkeren meist teurer als beim schwächeren (hier sollte natürlich bei beiden die selbe Fertigung zum Einsatz kommen. 32nm gegen old-school-90nm ist natürlich Unsinn.) sein, auch wenn der schnellere die Schleife öfter durchlaufen wird als der langsamere.


Eine andere Frage ist wiederum, warum bei technischen Spezifikationen für die Leistungsaufnahme ausgerechnet eine Abkürzung genutzt wird, die die Wärmeabgabe bezeichnet...
 
Da hilft nur, Meßgerät an die Steckdose ;) Irgendwelche pie mal daumen rechnungen sind nicht ernst zu nehmen. Wie gesagt zwischen Idle und Last liegen eben Welten. Und auch Netzteile machen da noch ihre eigenen Spielchen
 
das ist echt eine gute idee. ein intel cpu ist zwar teuer, aber ist im endeffekt eigentlich genauso teuer wie ein amd cpu. anfangs sind amd cpus zwar günstig,verbrauchen jedoch mehr als die momentanen middclass prozessoren von intel ( zb. i5 2500k ) . mit der zeit verbrauchen amd cpus jedoch so viel strom, dass der gesamtpreis (, der ja mit der zeit immer weiter zu nimmt, solange das cpu läuft ;) ( damit meine ich die stromkosten ) ) irgendwann den gesamtpreis eines intel cpu erreicht und ab da auch übertrifft. in diesem fall rentiert sich dann einfach eine intel cpu. ich finde computerbase könnte mal eine sogenannte "go green" sektion eröffnen und sich mit diesem thema mal befassen :-) oder ein user, der in diesem bereich professionell tätig ist.

ich will jetzt hier keine werbung machen von wegen "KAUFT EUCH EINEN "HYBRID-WAGEN" " etc. ;) , sondern mir geht es eher um das Geld, dass uns mit der Zeit aus dem Geldbeutel abgegriffen wird ;) und was mit der verbrauchszeit rentabler wäre.


zb. einen aktuellen vergleich machen : Leistung / Verbrauch : Intels vs AMDs momentanen middclass cpus
 
Zuletzt bearbeitet:
So kannst es nicht rechnen.Du musst Beachten bei dem Vergleich:
Idle Verbrauch: Der ist ziemlich gleich.
Idle-Teillast:wie Office,I-net,Kopieren...Wo die CPUs auch wieder gleich sind.
Teillast durch Spiel: Dort bekommst auch keinen Großen unterschied zu sehen.
Vollast durch Encoder.....(Programme die alle Kerne auslasten)...: Da wirst nen Unterschied haben(Faktor Zeit dabei auch nicht vergessen)..
Den MIX aus diesen Ergebnissen kannst zur berechnung verwenden.
Ergebniss:Rund 10-20Eu unterschied im Jahr.
 
Zuletzt bearbeitet:
Die Werte von CB sind doch Messwerte die mit solch einem Gerät geprüft wurden. Außerdem ist hier ja die Differenz aus Idle und Last genommen worden um einen halbwegs Aussagekräftigen Wert zu erzielen.

Ich kann auch gern mal meinen PC testen, weil ich komm recht nah an das CB Testsystem dran.

Aber vielleicht wäre das mal einen Artikel seitens CB wert und vielleicht hab ich das mal damit angestoßen, denn anscheinend weckt das Thema ja großes interesse unter euch.

@Casi
Woher nimmst du jetzt die 20€ unterschied?
 
Zuletzt bearbeitet:
.neck schrieb:
Eine andere Frage ist wiederum, warum bei technischen Spezifikationen für die Leistungsaufnahme ausgerechnet eine Abkürzung genutzt wird, die die Wärmeabgabe bezeichnet...
Weil sie näherungsweise identisch sind kann man das machen.

>

Es spielen viele Faktoren in die Rechnung rein:
  • Das verwendete Netzteil!
  • Idle
  • Last
  • Mischbelastung
  • Auslastungszustand
  • Nutzerverhalten
  • Temperatur der Hardware (führt zu einem geringen Mehrverbrauch)
  • Undervolting oder nicht
  • Übertaktung oder nicht
  • Wenn Übertaktet, auf welche Weise - mit viel Spannung oder human
  • Wenn übertaktet, rechnet sich der Leistungsgewinn für die schnellere Erledigung der Tasks
  • Wenn übertaktet, rechnet sich der Leistungsgewinn für die schnellere Erledigung der Tasks nicht
  • Schnellere Abarbeitung einer Aufgabe bedeutet weniger lange Volllastdauer
  • Strompreise variieren
  • Mainboard & Chipsatz variieren

Wenn du das alles in eine Formel kleidest, hast du meinen Respekt. Und bitte nimm den kompletten Wert des Gesamtsystems (abzüglich GPU meinetwegen) und nicht irgendwelche Delta-Werte. Auch die Plattform ist ein Kriterium der Effizienz. Schwankungen von diversen Boards meine ich damit noch nicht einmal.
 
Zuletzt bearbeitet:
Oder er verursacht ungefähr das doppelte an Kosten pro Jahr als ein I5 2500k.

Das kommt ganz auf den Anwendungsbereich an!
Auch die Rechnung mit dem 2600K zum 2500K kann man so eigentlich nur stehen lassen, wenn man dazu schreibt was für Anwendungen laufen.
Wenn es darum geht "Ich spiele so und so viele Stunden pro Tag!" dann kommt es hin!
Wenn man aber z.b. Videos umwandelt und z.b. Handbrake dafür benutzt und sagen wir mal 10 Stunden am Stück Videos mit dem 2500K umwandelt, so ist der 2600K da in diesem Beispiel schon seit über 1 1/2 Stunden im Idle Modus, wenn der 2500K fertig ist:
handbrake.png
 
6h am pc und dabei 6 std vollast ? eher nicht dürfte maximal 1 std vollast sein 2-3 std ( wenn man spielt ) hohe teillast ansonsten idle
 
Knuddelbearli schrieb:
6h am pc und dabei 6 std vollast ? eher nicht dürfte maximal 1 std vollast sein 2-3 std ( wenn man spielt ) hohe teillast ansonsten idle


Sag mal hast du dir den cb artikel überhaupt angeschaut? Hier ist der Mix aus Idle und Volllast zur Berechnung genommen worden also kann man von 3 Stunden Idle und 3 Stunden Volllalst reden. Ich habe nicht 6 Stunden Idle berechnet und auch nicht die 6 Stunden Volllast.

Ich hab keine theoretischen Werte zur Hand genommen, sondern die Systemverbräuche die CB hier angibt.
 
Ja, dem stimme ich weitestgehend zu. Wenn, dann kannst Du nur die minimalen und maximalen Kosten angeben, hier am Beispiel Deines I5 2500K:

Idle:
6h * 0,08kW * 0,25Euro = 0,12Euro (Das entspräche dann etwa den Kosten für 6h Arbeiten mit MS-Office)
Last:
6h * 0,154kW * 0,25Euro = 0,23Euro (Beim Spielen mit Prime95)

Irgendwo dazwischen bewegen sich dann die Kosten, beim Arbeiten tendenziell eher Richtung 12ct pro Tag, beim Spielen eher in Richtung 0,23ct + Verbrauch Grafikkarte.
 
also ich sehe in der Rechnung 6h vollast ( und das mit einem tool das die cpu zu 100% auslastet )

Edit: hat ht4u früher nicht Zeitlupenaufnahme auch mit spielen getestet?
 
Zuletzt bearbeitet:
Zurück
Oben