Thermische Spannung versus kühle CPU

Luckeie

Ensign
Registriert
Feb. 2020
Beiträge
158
Was ist sinnvoller für ein langes CPU-Leben? Eine möglichst kühle CPU, oder eine CPU die nicht ganz so kühl ist und damit für immer wieder auftretende Last mit einer geringeren Differenz zur Maximaltemperatur aufwarten kann? Dadurch leidet sie in der Theorie unter weniger thermischen Spannungen und ist damit haltbarer.

Finde ich eine interessante Frage. Die Antwort könnte mein Kühlkonzept über den Haufen werfen! :-)
 
Höhere Temperatur bedeutet höherer elektrischer Widerstand bedeutet höhere notwendige Spannung. Und hohe Spannungen sind schlecht für die Langlebigkeit. Also lieber kühl halten.
 
Kommt doch darauf an, vor was du mehr Angst hast....hast du Angst, dass sich irgendwann die Lötstellen lösen(hohe Temperaturunterschiede von Raumtemperatur zu Maximaltemperatur), oder hast du Angst, dass der Chip degeneriert(hohe Temperaturen über längere Zeiträume).

Und wie kann das dein Kühlkonzept über den Haufen werfen?
Bestmögliche Kühlung hilft doch in beiden Fällen.
 
Toms schrieb:
Höhere Temperatur bedeutet höherer elektrischer Widerstand bedeutet höhere notwendige Spannung.
Nein, Silizium ist ein Warmleiter.
 
Im Prinzip ist es egal wie man ne CPU behandelt bis die übern Jordan geht ist diese schon lange zu langsam.
ich persönlich bevorzuge hohe Temperaturen durch langsame Lüfter, meine Ohren und Nerven danken es mir.
 
Wenn man die Lebensdauer einer CPU bedenkt ist beides irrelevant. Deine CPU ist nach 8 Jahren einfach völlig veraltet und wahrscheinlich noch lange nicht am Ende der Lebenszeit. Meinen 2500 k hab ich mit 10 Jahren dauer OC nicht platt bekommen und das ist eher die Regel als eine seltenheit.
 
Die Frage kann man nicht beantworten weil es auf den Aufbau des IHS ankommt, der zum einen jedesmal anders ist, zum anderen niemand so einen Test machen kann ausser der Hersteller vielleicht. Der Hersteller wird diese Daten aber nie veröffentlichen.

Aber für dich als Nutzer ist es sowieso irrelevant, weil in der Praxis der Unterschied nicht messbar und die Datenbasis zu gering sein wird. Es ist also keine interessante Frage und für dein Kühlkonzept irrelevant.

Zur Info: CPUs sind für ca. >20 Jahre ausgelegt bevor Elektromigration, also Temperatur, ein Rolle spielen sollte. Selbst mit Übertaktung und damit höheren Spannungen und Temperaturen ist das so. Es gibt noch viele Pentiums und Athlons aus den 1990ern und immer noch übertaktet laufen. 15 Jahre alte Core2Duo und Phenoms sowieso. Das größere Problem sind in der Regel die Mainboards: Elkos trocknen aus.
Das ist heute nicht anders mit derzeitigen CPUs.
 
Die Frage ist, was verstehst du unter Langlebigkeit? Solange du da nicht ordentlich Spannung raufhaust, halten CPUs heutzutage zig Jahre. Mein FX-8120 hielt übertaktet vom Release-Jahr bis zum Release des Ryzen 5 1600. Und wenn man sieht, was für Leute noch heute eine hochgezüchtete Sandy Bridge CPU nutzen.

TLDR: CPUs halten heutzutage ewig.
 
Man muss sich nur die Apple Notebooks anschauen. Hier laufen die CPUs teilweise ständig im Temp Limit und das funktioniert erstaunlich gut ohne ausfälle.
 
@Baal Netbeck: Bisher war ich bestrebt die CPU Temperatur in Idle möglichst tief zu halten. Zum Beispiel auf 35 Grad. Gerät der Rechner nun etwas unter Last, geht die Temperatur schnell auf 50 und mehr Grad. Ein Sprung von 15 - 25 Grad mit in Theorie entsprechenden mechanischen Belastungen. Ich könnte die Ventilatoren aber auch so einstellen, dass die CPU bei Idle 50 Grad warm ist und dann eben nur 10 Grad wärmer wird.

Auch wenn man bestrebt ist, einen möglichst lautlosen Rechner zu haben, spielt es eine gewisse Rolle. Denn dann kann man in Idle die Lüfter noch langsamer stellen und hat trotzdem eine langlebige CPU.

Das ist jetzt für den Normaluser keine existentiell wichtige Frage. Aber ich finde sie innerhalb der Overclocking Szene trotzdem diskussionswürdig.
Ergänzung ()

@SpamBot: Apple will aber auch alle 2 Jahre einen neuen Rechner verkaufen, oder? :-)
 
Luckeie schrieb:
Apple will aber auch alle 2 Jahre einen neuen Rechner verkaufen, oder? :-)
Ja weil ja MacBooks dafür berühmt sind nach 2 Jahren kaputt zu gehen. Ich habe noch nie etwas von einer kaputten MacBook CPU gelesen. Aber ich könnte mich hier auch täuschen, gab es früher bestimmt mal, die haben ja viel experimentiert... aber das war nicht meine Welt :)
 
Da treffen zwei Sachen aufeinander. Bauteile leben bei hohen Temperaturen weniger lang. Elektrolyt-Kondensatoren haben z.B. als Faustregel, dass 10 K weniger die Lebensdauer verdoppelt. Anders, wie schon von dir festgestellt, erzeugen starke Temperatursprünge und -unterschiede Spannungen im Material, was auch nicht gut ist. Mit fehlt die Expertise zu sagen, was auf dauer schädlicher ist.
 
@MaxOrdinateur: Ich kenne die Argumentation mit den alten CPUs die immer noch laufen. Ich bin aber an belastbaren Fakten interessiert, die die beiden Kühlkonzepte vergleichen. Aber ich verstehe, dass es da möglicherweise nicht genügend Daten gibt.
Ergänzung ()

@SpamBot. An meinem letzten Arbeitsplatz hatten wir DELL-Notebooks mit i7 im Einsatz. Die waren sehr leistungsfähig. Liefen aber ständig auf hohen Temperaturen. Speziell auch die Grafikkarte. Und ich habe mehrmals erlebt, wie die dann in etwa 2 Jahren ihre Funktion einstellte.
 
Zuletzt bearbeitet:
Was schädlicher ist, ist bei jeder CPU Generation anders. Jede andere Zusammensetzung von Substrat und IHS ändert dies.

Als auf ROHS umgestellt wurde hatten plötzlich viele Komponenten Probleme gerade mit Materialstreß. teilweise innerhalb der Gewährleistung. Mittlerweile scheint dieses Problem behoben zu sein, aber ob das auch für längerfristige Nutzung stimmt: wer weiß? Das kann nur Erfahrung zeigen weil selbst der Hersteller Alterung nur simulieren und berechnen kann. Eine Simulation ist aber keine Realität.

Die Frage ist aber: wieso haben die ihre Funktion eingestellt? Elkos die austrockneten, bleifreies Lot welches die Platinen gestreßt hat? Ich lehne mich aus dem Fenster und sage, es waren nicht die CPUs. Ausser es waren Intel Cxxxx Atoms. Die sind aufgrund von einem Materialfehler reihenweise kaputt gegangen.
 
@MaxOrdinateur: Bei den DELL Notebooks war ja vor allem die Grafikkarten CPU sehr heiß. Und wenn ich mich recht erinnere, war diese von AMD. Aber Genaues weiß ich leider nicht mehr. Ich wollte damit nur belegen, dass es scheinbar schon noch Halbleiter gibt, die nach relativ kurzer Zeit ihren Dienst einstellen. Aber Du hast natürlich recht, wenn es gar nicht die CPU, sondern vielleicht ein anderes Bauteil wie ein Kondensator war.
 
SpamBot schrieb:
Ja weil ja MacBooks dafür berühmt sind nach 2 Jahren kaputt zu gehen.
Hmm...also was ich so höre, sind sie das durchaus.....die Qualität bei Apple ist unter aller Sau und die Hardware absichtlich so gestaltet, dass sei anfällig ist...Aber nein...die CPU geht da nicht zuerst kaputt.

Luckeie schrieb:
Ich bin aber an belastbaren Fakten interessiert, die die beiden Kühlkonzepte vergleichen.
Puh...wo willst du die herbekommen?

Du kannst dir sicher sein, dass Intel und AMD solche Tests machen und dementsprechend ihre Strom, Spannungs und Temperaturlimits setzen, damit die CPUs nicht innerhalb der Nutzungsdauer kaputt gehen.

Solche Daten wirst du aber nicht zu sehen bekommen.....du kannst dir aber sicher sein, dass du ohne OC keine Problemem zu erwarten hast.

Wenn du OC machst, wird es ganz anders... jetzt musst du auf einzelerfahrungen von Leuten zurückgreifen, die es übertrieben haben oder abschätzen, was wohl problematisch sein dürfte.

Bei Ryzens Zen galten z.B. 1.4V als ok....und 1,2V soc für gefährlich, weil es da fälle gab, wo 1,2V nach ein paar Monaten schon die CPU degeneriert hatte.
Bei Zen+ etwas weniger...1,35V und 1,15V....und mit Zen2 weiß man es nicht wirklich....der soc sollte weiterhin 1,15V verkraften, aber auch da haben sich leute schon dem IMC degeneriert....und bei den CPU Kernen ist das Problem, dass man bei allcoe OC die Sicherheitsfeatures deaktiviert, die die Kerntemperaturen überwachen und sie so vor überhitzen schützen......Der Boost gibt da durchaus 1,5V drauf, aber immer mit der Option, die Kerne sofort herunter zu takten und die Spannung zu senken, wenn sie zu heiß werden.
Daher sollte man vermutlich besser unter 1,3V bleiben.
 
Luckeie schrieb:
Aber Du hast natürlich recht, wenn es gar nicht die CPU, sondern vielleicht ein anderes Bauteil wie ein Kondensator war.
In der Regel sterben eher die Mainboards als die Chips selbst.

Bei den sterbenden Konsolen waren es ja auch die Lötstellen der Chips und nicht die Chisp selbst....deshalb konnte man mit etwas Glück, diese durch "Backen" wieder zurechtrücken, sodass sie teilweise wiederKontakt hatten und noch etwas weiter benutzt werden konnten.

Da war also thermal cycling das Problem...und manchmal die Lösung. ;)

Das wirklich der Chip degeneriert, kenne ich eigentlich nur von OC.

Um was für Hardware machst du dir denn überhapt Sorgen?
 
@Baal Netbeck: Du gehst jetzt schon direkt ins Overclocking. Da wollte ich noch gar nicht hin. :-) Ich habe ja gefragt, weil es das erste Mal war, dass ich von einem Hinweis las, der darauf hin deutete, dass es für die Langlebigkeit besser sein könnte, eine nicht zu gut gekühlte CPU zu haben! Da dadurch der ständige große Temperatursprung und damit größere mechanische Spannungen ausbleiben.

Und wenn es stimmt, ich in Idle einen leiseren Rechner habe. Also 2 Fliegen mit einer Klappe geschlagen. :-)
 
Luckeie schrieb:
@MaxOrdinateur: Bei den DELL Notebooks war ja vor allem die Grafikkarten CPU sehr heiß. Und wenn ich mich recht erinnere, war diese von AMD. Aber Genaues weiß ich leider nicht mehr. Ich wollte damit nur belegen, dass es scheinbar schon noch Halbleiter gibt, die nach relativ kurzer Zeit ihren Dienst einstellen. Aber Du hast natürlich recht, wenn es gar nicht die CPU, sondern vielleicht ein anderes Bauteil wie ein Kondensator war.

GPUs die durch thermische Belastung kaputtgehen sind mir nur nvidia GPUs der 8000er Serie bekannt. Das war damals ein ROHS Problem mit bleifreiem Lot. So ca. ~2008 oder so. nvidia hat das damals bewusst miserabel entwickelt, d.h. die Probleme waren direkt vorhersehbar. Als das Problem bekannt wurde hat sich nvidia aus der Verantwortung gezogen und alles abgeleugnet weil das Problem so groß war, daß es nvidia in den bankrott hätte treiben können.
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Zurück
Oben