News „Ivy Bridge“: Hitzeproblematik beim Übertakten erklärt

Ganjaman666

Cadet 3rd Year
Dabei seit
Okt. 2008
Beiträge
40
Ok, das der Verbrauch bei höheren Temperaturen steigt, ist wohl so. Um da mal ein Gefühl zu bekommen wie viel das genau ausmacht, habe ich gerade mal getestet. Dazu habe ich meinen 3570k mit 1,2v und 4,4 GHz durch Prime laufen lassen. Gleichzeitig hatte ich den Rechner an einem Energiekostenmessgerät. Innerhalb weniger (2?) Sekunden schoß der Verbrauch von 83W auf 165W hoch. Nach 2 Minuten Durchwärmung waren es dann 166W auf der Anzeige. Die Temperatur des heißesten Kerns lag bei 74°C. Jetzt habe ich im laufenden Betrieb die beiden CPU-Lüfter abgeklemmt (ich weiß, ich bin wahnsinnig). Die Temperatur stieg dabei in 2 Minuten auf 84°C, also 10K mehr. Der Verbrauch stieg im gleichen Zeitraum auf 168W.

Wenn jetzt meine Messung stimmt, dann haben 10K mehr gerade mal 1% mehr Verbrauch gemacht. Da man ja den Rechner selten auf Vollast betreibt, wird man den Unterschied wohl niemals merken.

Und jetzt zu dem Argument mit dem schnelleren Altern: Ich habe bisher alle meine Prozessoren und Grafikkarten übertaktet. Das waren in den letzten 20 Jahren nicht wenige. Ich habe es aber noch nie erlebt, dass Hardware durch einen schleichenden Prozess kaputt gegangen ist. Und wenn sowas nach 10 Jahren doch mal passieren sollte, dann ist die Hardware eh nichts mehr wert. Noch mal: Das gilt natürlich nur bei "normaler" Nutzung und nicht bei 24/7 Vollast.

Das Köpfen kann die Alterung und den Verbrauch verbessern, vernichtet aber die Garantie und die Möglichkeit des Weiterverkaufs.
 

Quad-core

Admiral
Dabei seit
Jan. 2008
Beiträge
8.541
Bei mir sind laut messgerät bei 51°C 141Watt , bei 70°C liegen war schon bei über 150Watt , für mich ist das schon deutlich , die messgeräte sind zwar nie ganz genau , aber immerhin sind es bei 20°C fast 10watt .
 

Ganjaman666

Cadet 3rd Year
Dabei seit
Okt. 2008
Beiträge
40
Na das ist schon mehr. Möglicherweise flacht die Kurve ab 70°C etwas ab.

Aber ich bleib dabei: Wenn ich diese 10 Watt 5 Stunden pro Woche verbrauche, bin ich bei 50 Cent pro Jahr. Das ist mir die Garantie wert und weiterverkaufen möchte ich die CPU auch irgendwann.

Ich könnte jetzt höchstens den Kühlerboden planschleifen und einen schnelleren Lüfter einbauen.
 

Quad-core

Admiral
Dabei seit
Jan. 2008
Beiträge
8.541
Es ist ja nicht nur bei der CPU so , zb schluckt mein CF gleich 40Watt weniger wen die Karten maximal 60°C warm werden , is ja auch nicht immer ne geldbeutel sache , bei mir eher ne kopfsache :evillol:.
 

KainerM

Vice Admiral
Dabei seit
Apr. 2010
Beiträge
7.017
gut. Du hast ein Crossfire aus zwei 400€-Grafikkarten, und machst dir Gedanken um 40W Mehrverbrauch. Bei 5 Stunden täglich sind das im Jahr keine 20€ Ersparnis... Und ganz ehrlich: 5 Stunden jeden Tag zu Zocken, das hält man auf Dauer nicht aus. Und wenn du deine Karten nicht übertaktet hättest, würdest du mehr sparen.

Aber jeder wie er will: Für mich bitte etwas heißer, dafür leise.

mfg
 

voon

Commander
Dabei seit
Aug. 2006
Beiträge
2.112
Wieso nicht? Mir erschleisst sich der Sinn von SLI/Crossfire auch nicht ganz, da man, riesige Aufloesungen mal ausgeschlossen, damit eigentlich Speedmaessig meistens den Games voraus ist und sich, wenn die Games mal aufgeschlossen haben, dann meist neuere, schnellere Chips anbieten.

Abe rman kann auch dann wenigstens da sparen wollen, wo's geht. Man kann auch Sportwagen fahren und zuhause trotzdem brav das Licht ausmachen und Muell trennen.
 

Quad-core

Admiral
Dabei seit
Jan. 2008
Beiträge
8.541
Ich sagte ja es geht nicht immer nur ums geld , für mich hat das auch andere gründe , auch wen die einigen als sinnfrei erscheinen.
 
Anzeige
Top