Stromverbrauch im Jahr: AMD Richland vs. Haswell Server

kobo

Cadet 1st Year
Registriert
Apr. 2013
Beiträge
14
Hallo Leute,

ich möchte mir einen Server zusammenstellen. Nun würde ich AMD Richland präferieren, da er mir mit AES-Support günstiger kommt, und durch die bessere APU ich kein 24p Bug bei Filmen habe.

Da der Server nun aber 24 Stunden laufen wird, ist die Frage ab wann sich ein Intel amortisieren wurde.

Hierzu nehmen wir zum Vergleich:
- Richland A8-6500 -> TDP von 65 Watt
- Intel Core i5-4570T -> TDP von 35 Watt

Nun findet man oft Benchmarks vom Verbrauch im Idle oder unter Filme bis hin zu Vollast.
Jedoch nehme ich an, dass die CPU die meiste Zeit bei so ca. 5-10% CPU-Last rumgurken wird -> was habe ich dann für einen Verbrauch?

Also bei meinem Einsatzzweck:
- 24/7 läuft ein Webserver mit Ajaxplorer/Owncloud + Homepage (Jedoch meistens NICHT in Verwendung)
- 24/7 Stunden am Tag läuft jDownloader oder WinSCP für Downloads und Backups, etc. (ca 12 Stunden in Verwendung pro Tag)
- 24/7 läuft Exchange-Server mit 1 Konto und 5 Clients die darauf zugreifen
- 24/7 Stunden läuft XBMC und MediaMonkey, welche aber nur 5 Stunden am Tag "arbeiten werden"
- 1-2 VMWares laufen im idle im Hintergrund, und werden ca 2 Stunden am Tag verwendet

So - bei diesem Verwendungszweck: Mit welcher CPU-Auslastung muss ich rechnen? Wieviel werde ich im Schnitt verbrauchen? Lohnt sich also eine Intel-CPU bereits nach 1-2 Jahren?
 
Die TDP ist für Deine Zwecke unwichtig. Bei Idle oder minimallast brauchen die CPUs viel weniger, Haswell bei Idle unter 10Watt. Da brauchst Du auch nicht die T-Version, die ist nur unter Vollast interessant, im Idle ist die auch nicht sparsamer.
 
Na ja gehe doch einfach von einem Schnitt von 50% aus. Dazu kommt nicht nur die CPU beachten sondern auch andere Bauteile wie:

HDD bzw. SSD
W-Lan oder andere Erweiterungskarten

Dazu kommt das man ein geplantes herunterfahren machen kann sprich ab 02:00 bis 08:00 aus. Hoch fahren entweder mit WoL oder per BIOS/UEFI starten.
 
Im Idle sind die AMD APUs besser, wenn Intel dann würde ich schon den Core i5 4670T mit 45W TDP nehmen da dieser ein Quad Core ist.
 
Wie bist du denn auf diese beiden CPUs gekommen? Der i5-4570T ist nur ein Zweikerner, kostet aber 170€. Ein A8-6500 ist weit langsamer noch als der i5. Nimm doch einfach einen i5-4430 - i5-4570, damit hast du viel mehr Leistung, und der Stromverbrauch ist bei der gezielten Beanspruchung fast identisch, da wirken andere Komponenten weit stärker...
Und der 24p-Bug ist doch seit langem nicht mehr vorhanden, oder irre ich mich da?
 
der Aufpreis für die T-Version killt jede dadurch erreichte Stromersparnis. Die T-Modell sind _keine_ Stromsparmodelle, sondern "nur" für Gehäuse gedacht, in denen eine größere Abwärme nicht abgeführt werden könnte. Im Idle sind der i5-4570T und der normale 4570 absolut gleichauf.

Viel mehr Strom sparst du durch ein gutes NT, time-out der Platten, nur einen RAM Riegel wenn möglich etc.
 
OK, dann vergessen wir mal das T-Modell, sondern nehmen die günstigste Haswell/Ivy Bridge CPU mit AES-Support als Referenz (dann wohl ein 4-Kerner für ca 140€)

Es geht einfach darum: Ich werde wohl keinen reinen IDLE haben, sondern der Server läuft wohl 50% seiner Zeit im Singlethread Modus.
Schaue ich PC Games Hardware an:
http://www.pcgameshardware.de/CPU-H...AMD-A10-6800K-A10-6700-Richland-Test-1071478/
Verbraucht eine AMD-Plattform im Singlethread (Image Viewer) 30 W mehr.
Auf das Jahr hoch gerechnet wären das ca. 50€ Jahr.

Das bedeutet bereits im ersten Jahr hat sich der höhere Anschaffungspreis von einer Intel-Plattform amortisiert.
Kann ich das so rechnen? ;)
 
Zuletzt bearbeitet:
Im Idle nehmen sich die Prozessoren wenig, teilweise sind die AMD dort sogar sparsamer. Unter Volllast ist dann aber intel teilweise einiges sparsamer. für nen server der größtenteils nichts so halte ich die Verbrauchsunterschiede nicht relevant. Etwas googlen bringt die konkrete Zahlen.

Nein, Du kannst nciht so rechnen. Gesampt-Plattform-Preis berücksichtigen und wenn du richland nicht mit primär gpu-fokus betreibst reicht auch ein kleinerer mit weniger gpu-leistung und nicht so schnellem speicher, was den verbrauchsunterschied weiter minimiert. auch glaube cih nciht an 50% last sondern an 15% last mit gelegentlichen spitzen, d.h. 100% für 2 sekunden.
 
Zuletzt bearbeitet:
Du solltest bei deiner Berechnung auch noch die Zeit einrechnen die die CPUs benötigen.
Eine Intel CPU ist mit einer Rechenaufgabe schneller fertig und kann dadurch schneller wieder Stromsparen ---> nochmals weniger Verbrauch
 
kobo schrieb:
OK, dann vergessen wir mal das T-Modell, sondern nehmen die günstigste Haswell/Ivy Bridge CPU mit AES-Support als Referenz (dann wohl ein 4-Kerner für ca 140€)

Es geht einfach darum: Ich werde wohl keinen reinen IDLE haben, sondern der Server läuft wohl 50% seiner Zeit im Singlethread Modus.
Schaue ich PC Games Hardware an:
http://www.pcgameshardware.de/CPU-H...AMD-A10-6800K-A10-6700-Richland-Test-1071478/
Verbraucht eine AMD-Plattform im Singlethread (Image Viewer) 30 W mehr.
Auf das Jahr hoch gerechnet wären das ca. 50€ Jahr.

Das bedeutet bereits im ersten Jahr hat sich der höhere Anschaffungspreis von einer Intel-Plattform amortisiert.
Kann ich das so rechnen? ;)

fail
 
Zuletzt bearbeitet:
Als erstes müsste ich mal eine Grafik finden welche mir bei Haswell und Richland den Verbrauch als Funktion der Prozessorauslastung anzeigt ;)

Habe nämlich keine Ahnung wieviel Watt zwischen 15% Auslastung Richland und ca. 8% Auslastung bei einem schnelleren Haswell liegt ;)
 
Zuletzt bearbeitet:
bambule1986 schrieb:
Eine Intel CPU ist mit einer Rechenaufgabe schneller fertig und kann dadurch schneller wieder Stromsparen ---> nochmals weniger Verbrauch

nur, wenn die auslastung 100% betrifft. bei niedrigerer auslsatzung ist lediglich die auslastung unterschiedlich. bei daddelaufgaben würde ich den effekt nicht als relevant erachten. wir reden hier ja von realen workloads und nciht von spielebalken oder synthetischen benchmarks. wenn viel komprimiert wird und längere zeit 100% last sind, stimme ich dir zu.
 
xyz- schrieb:
wie viel zahlst du bitte für den Strom ich komm bei 30w/std auf 24std/jahr hochgerechnet nicht über 13,9euro,
bei 20cent/kw, also zahlst du ca.75cent/kw , sry aber das ist utopie

Rechne die 13,9€ mal 30 Tage und du bis bei 41.7€.
Bin derzeit noch beim Grundversorger und zahle glaube ich 26 Cent/kwh
 
Also der 24p Bug existiert nicht mehr.
Aber die GPU wird bei einem Server eh nicht belastet da doch das Abspielgerät die Codierung übernimmt.

Wenn ich mich nicht verrechne sind die 20W Differenz bei 24/7 berieb 52,56€
Man braucht 50 Stunden um ein KW/h zusammen zu bekommen. Also zwei Tage. Bei einem KW/h Stundenpreis von 0,30€ wären das nach einem Jahr 175,2 KW/h also 52,56€
Korrigiert mich wenn ich falsch liege.
Aber bei Intel ist nicht nur die CPU teurer sondern wahrscheinlich auch das Board. Also kann es 2 Jahre dauern bis sich das amortisiert. Wenn die Differenz wirklich 20W beträgt was ich bezweifel.
 
Zuletzt bearbeitet:
20c/kW ist sehr günstig (Grundgebühr miteinrechnen!) Als Mittleren Preis würde ich 25 c ansetzen. Ich habe einen recht guten Vertrag und zahle (inkl umgelegter Grundgebühr) 22,7 c
 
puri schrieb:
20c/kW ist sehr günstig (Grundgebühr miteinrechnen!) Als Mittleren Preis würde ich 25 c ansetzen. Ich habe einen recht guten Vertrag und zahle (inkl umgelegter Grundgebühr) 22,7 c

:eek: Deutschland ist aber teuer, ich zahl 12,8cent/kw

sry war n fail.

30Wx24=720Wx365=262.800W/1000=262,8KWx25=6570/100=65,7

aber trotzdem ist die Rechnung eher hinfällig da ein (home)Server meist nicht 24/7 dauerlast hat
 
Zuletzt bearbeitet:
bei der preiskalkulation würde cih in jeden fall AMD verwenden und in einem jahr für geringen aufpreis eine deutlich sparsamere APU nachkaufen. Den Vorsprung in der Fertigung wird intel nciht auf dauer halten können (physikalische grenzen, immer teurere gesamtkosten bei jeder fertigungsstufe). drum ist die ersparnis bei zukünftigen AMD höher als bei Intel, die ja das besere Niveau schon haben. Aber das ist meine persönliche meinung. drum würde cih auch mit nicht mehr als 1 jahr rechnen, da mann dann wieder neu rechnen kann.
 
Wir kommen vom Thema ab :D

Ok, also halten wir mal fest:

Wir haben bei meinem Anwendungsprofil eine durchschnittliche CPU-Belastung von ca 15% bei Richland festgesetzt.
Der günstigste Haswell wäre ca 50% schneller, hätte also eine durchschnittliche CPU-Auslastung von 10%.

Haswell würde mir zuwsammen mit Mainboard ca. 65€ mehr kosten.

Fragestellung: Wieviel Watt liegen zwischen 15% Richland CPU-Auslastung und 10% Haswell-Auslastung? :P

tm0975 schrieb:
drum würde cih auch mit nicht mehr als 1 jahr rechnen, da mann dann wieder neu rechnen kann.
Never Touch a running system ;)
Man sagt zwar Studenten wären faul, aber ich werde zwischen Bachelor-Arbeit und Master-Abschluss nur 1 mal in den nächsten 2-3 Jahren die Zeit finden einen Server zu konfigurieren ^^
 
Zuletzt bearbeitet:
Zurück
Oben