Rechenfüchse gesucht..

rhyn

Banned
Registriert
Juni 2012
Beiträge
3.028
Hallo,

ich würde gerne mal ein paar Rechnungen-Zahlen etc. bekommen, zu folgender Frage:



Wieviel Strom verbraucht ein AMD 8350@stock "PRO JAHR" mehr als z.B ein Intel i5 3570K..?


Vielen Dank schoneinmal.


P.S. Bei normalem Gebrauch. Sprich, so 1-3 Stunden zocken pro Tag und evtl noch 3-4 Stunden Idle pro Tag.
 
Das kannst du doch ganz einfach selber ausrechnen!?

1-3h x Watt unter Last + 3-4h x Watt im Idle = Wattstunden pro Tag.
Wattstunden pro Tag x Strompreis in Cent pro Wattstunde = Preis pro Tag
Preis pro Tag x 365 = Preis pro Jahr

Und das für beide CPUs. Infos zu den Verbräuchen findest du überall im Netz (auch hier auf CB).
 
Das ist nicht so schwer selbst zu berechnen. Wenn man die Daten aus einem Computerbase Test nimmt, beträgt der Unterschied im Idle 13 Watt im Idle und 110 Watt unter voller Last. Da die Prime95 Last-Messung die CPU aber viel stärker auslastet als ein normales Spiel, wird der reelle Unterschied geringer sein (im folgenden Rechenbeispiel habe ich mit nur der Hälfte, also 55 Watt, gerechnet).

Gehen wir mal von folgenden Daten aus:

4 Stunden im Idle pro Tag, 365 Tage im Jahr = ~ 19kWh mehr Verbrauch des 8350
2 Stunden Spiele-Last pro Tag, 365 Tage im Jahr = ~40kWh mehr Verbrauch des 8350

Bei Stromkosten von 0,25 Cent pro kWh wären das 14,75 Euro an zusätzlichem Stromverbrauch pro Jahr.
 
rhyn schrieb:

ich würde gerne mal ein paar Rechnungen-Zahlen etc. bekommen, zu folgender Frage:


Wieviel Strom verbraucht ein AMD 8350@stock "PRO JAHR" mehr als z.B ein Intel i5 3570K..?

P.S. Bei normalem Gebrauch. Sprich, so 1-3 Stunden zocken pro Tag und evtl noch 3-4 Stunden Idle pro Tag.

Der AMD hat einen TDP: 125W ( k.A. was der im idle/ bzw. im max verbraten tut ) Dank den ganzen dämlichen Testberichten,
hat man kaum Referenzen - hilft halt nur der Leistungsmesser von Conrad/ELV und messen?

Der intel i5 hat einen TDP von rd. 77 W.
Im Idle wird der Kasten mit OS-ssd + Daten-hdd gut 55 - 70 Watt verbrauchen; je nach Grafikkarte im Durchschnitts-Bereich > 350 Watt bis Ende nie; wer soll das schon riechen können. ( nach oben offen )

Grob-Rechnung:
3 h Zocken: ( 350 Watt x 3 h x 360 Tage / 1000 ) x ( 0,26 euro // kW/h ) = 99 euro
4 h Idle: ( 60 Watt x 4 h x 360 Tage / 1000 ) x ( 0,26 euro // kW/h ) = 24 euro
Gesamt: 125 euro Stromverbrauch ( pro Jahr )

Der AMD verbrät sicher > 29,34 % mehr; analog rd. 165 euro Gesamtstromverbrauch.

ps. welche überteuerte Grafikkarte soll es denn werden? Mit der Internen zieht man ja keine Wurst vom
Teller?


world-Off-Warcraft-Bratwurst-Stromverbrauch:
http://www.youtube.com/watch?v=zmNIl4Kqmdk
 
Zuletzt bearbeitet:
Kleiner Hinweis: Wenn der Junge die Zeit, die er gebraucht hat, um seinen komischen Stromverbrauchszähler zu filmen, diesen Film mit einschläfernder Musik zu unterlegen, zu editieren und auf youtube hochzuladen, auf der Arbeit verbracht hätte, hätte er die Stromkosten fürs halbe Jahr schon wieder drin gehabt.
 
Ein Mehr wird wenig ausfallen. Total könnte man im Mittel Annehmen 333W*4h=1,3kWh pro Tag.

Strom pro Tag : 35ct. Jahr ca. 120 Euro. Die Differenz beider Systeme wird zwischen 10 und 20 Euro sein.
 
danke euch. also isses nicht die welt die ein ach so stromhungrieger amd mehr verbaucht aufs ganze jahr.
das wird ja oft als nachteil für den amd angegeben. währen es nun 30-50 euro mehr, dann würd ichs noch verstehen, aber so iss ja lustig :D

ja mein energiemessgerät sollte bald endlich ankommen.

ach und zu meiner grafikkarte: es ist eine vtx HD 7850. also sparsames teil.


vielen dank
 
Naja man darf das nicht auf ein Jahr sehen meiner Meinung nach, sondern die meisten benutzen so eine CPU in der Regel ja mehrere Jahre und dann sind das mal eben 60-80 € an Mehrkosten und das bei nur 2-3 Jahren wodurch man schon nah am I7 dran ist von den Gesamtkosten. Im Grunde ist die CPU wenn du sie 4 Jahre lang im Einsatz hast, was in der heutigen Zeit nicht so unrealistisch ist, über die Laufzeit gesehen teurer als ein I7.
 
Hi, ich wechsel mindestens einmal im jahr meine plattform. nächster wechsel steht im herbst bis winter bevor.
 
Der Stromverbrauch im idle ist bei anständigen Boards in etwa gleich, bei full load verbrät der FX rund 100 Watt mehr (oft auch in Spielen). Das ist auf's Jahr gesehen nicht sooo viel, aber die Kühlung muss lauter und heißer sein.

Wenn man davon ausgeht, dass man als arbeitender Mensch jeden 2ten Tag rund drei Stunden spielt und hier 100W mehr benötigt, dann sind das 183 kW/h und somit bei 24 Cent pro kWh etwa 44 Euro für ein Jahr - das ist etwas weniger ich pro Monat an Strom-Abschlag zahle.
 
Ich glaube da ist ein Fehler in deiner Rechnung.

365/2 * 3 * 100 / 1000 * 0,24 = 13,14 Euro.

Sagen wir 15 Euro pro Jahr, dann braucht man allerdings noch ein stärkeres Netzteil, da sich dessen Leistung am Maximalverbrauch ausrichten muss und einen besseren Kühler, da sich dessen Kühlleistung auch am Maximalverbrauch des CPU ausrichten muss - u.U. sogar ein Mainboard mit aufwendigeren Spawas, damit die einem nicht um die Ohren fliegen.

Nutzt man die CPU für 4 Jahre können so schnell 100 Euro zusätzliche Kosten für einen FX anfallen, die man beim Kostenvergleich eigentlich auf dessen Preis aufschlagen müsste.
 
runtergevoltet haste im jahr etwa 1-3 euro mehr strom verbrauch merkste das?
 
Na, New-Generics, da ist wohl der Wunsch der Vater des Gedanken. :D
 
O._.O schrieb:
Na, New-Generics, da ist wohl der Wunsch der Vater des Gedanken. :D

wieso ? mein jetziger cpu frisst unter vollast weniger als mein alter 2500k mit selber taktrate allein im idel macht er bissel mehr was aber nicht viel ausmacht alles eine frage aber vom board, netzteil vcore wert von werk aus verbrauchen die amd´s leider echt viel ...
 
alex_bo schrieb:
Kleiner Hinweis: Wenn der Junge die Zeit, die er gebraucht hat, um seinen komischen Stromverbrauchszähler zu filmen, diesen Film mit einschläfernder Musik zu unterlegen, zu editieren und auf youtube hochzuladen, auf der Arbeit verbracht hätte, hätte er die Stromkosten fürs halbe Jahr schon wieder drin gehabt.

ja, elend nervige Musik.
Leider gibt es wenig Testberichte, bezüglich cpu/gpu + Leistungsmessungen.

Es gibt sicher 7.100.000 unboxing-videos, 40.000 fire-Fart-Videos und 9.200.495 Videos über Smartphones + Grafikbenchmarking.
Aber kaum Testberichte,
wo ein Dödel mal einen Leistungsmesser hin hängt und dazu paar Infos faselt.



ps. bei youtube > 80 % der ganzen Videos einfach mal vom Server löschen, über Nacht ( die ganze Scheise weg )
 
New-Generics schrieb:
wieso ? mein jetziger cpu frisst unter vollast weniger als mein alter 2500k mit selber taktrate allein im idel macht er bissel mehr was aber nicht viel ausmacht alles eine frage aber vom board, netzteil vcore wert von werk aus verbrauchen die amd´s leider echt viel ...

Wenn dein jetziges System weniger Strom zieht, kann ich mir nicht so recht vorstellen, dass das an den CPUs liegt. Da muss im 2500k System irgendetwas anderes den Verbrauch nach oben getrieben haben.

Ich habe ja selbst wie du einen Phenom II X6 und habe den bis zum Anschlag undervoltet. Für 5,90 Cinebench Punkte brauche ich 140 Watt (an der Steckdose gemessen) - 42,1 milli-Punkte pro Watt - der i5 3550 braucht für eine 12% höhere Score nur 75% des Verbrauchs. Und die FX verbrauchen sogar noch mehr Strom als ein undervolteter Phenom II X6, glaube ich. Der 8350 von rhyn zieht bei Cinebench z.B. 208 Watt.

Was zieht dein Phenom II X6 bei 3,6 Ghz an Leistung aus der Steckdose? Denn 3,6 Ghz dürfte im Cinebench ja knapp der Leistung eines i5 3550 entsprechen. Der i5 3550 zieht dort laut rhyn übrigens 105 Watt.

So ganz sind die Systeme natürlich nicht 100%ig vergleichbar, aber für einen Eindruck passt das schon.

rhyn schrieb:
ich würde gerne mal ein paar Rechnungen-Zahlen etc. bekommen, zu folgender Frage:[/I]

Wieviel Strom verbraucht ein AMD 8350@stock "PRO JAHR" mehr als z.B ein Intel i5 3570K..?

P.S. Bei normalem Gebrauch. Sprich, so 1-3 Stunden zocken pro Tag und evtl noch 3-4 Stunden Idle pro Tag.

Dann gebe ich auch noch mal meine Schätzung ab:

1-3 Stunden Zocken am Tag = 2 Stunden x 365, Mehrverbrauch AMD Vollast ca. 100 Watt - in Spielen geringer, vielleicht 60 Watt.

3-4 Stunden Idle am Tag - Mehrverbrauch AMD ca. 10 Watt

(365 x 2 x 60 + 365 x 3,5 x 10) / 1000 x 0,24 = (43,8 +12,775) x 0,24 = 13,58 Euro pro Jahr plus einmalig ca. 30 Euro Mehrkosten für NT und Kühler mit höherer Leistung. D.h. nach 5 Jahren hat man ca. 100 Euro Mehrkosten aufgrund von Stromkosten, Stromversorgung und Kühlung mit dem FX gegenüber dem Intel.
 
netzteil ist ein bequiet e6 400 watt und kühler der arctic freezer 13 pro, welcher ~1000 - 1100 U/Min dreht.

undervolten bin ich gerade bei. meine letzte konfig mit 1,280 vcore lief leider nicht stabil :(
 
Zurück
Oben