Wie warm sollte eine CPU sein?

das wäre echt mal was feines...

@Men_TOS

wenn du schon mit dem thema anfängst, dann informier dich doch auch gleich ein wenig besser. Oder mach gleich nen praxis versuch an deiner kiste ;)
 
...es geht doch letztendlich darum das es keinen Unterschied macht ob die CPU bei 30°C unter Last läuft oder bei 60°C

...aber es macht einen Unterschied wenn die CPU bei -40°C läuft, da die elektronen deutlich träger werden, ob das für uns im Messbaren bereich liegt sei erstmal dahin gestellt

"Bei Raumtemperatur ist die Leitfähigkeit der Halbleiter gering. Führt man Energie in Form von Wärme, Licht, Spannung, oder magnetischer Energie hinzu, so ändert sich die Leitfähigkeit."

"Halbleiterwerkstoffe haben eine Eigenleitfähigkeit, die durch Erwärmung und Lichteinstrahlung erhöht wird. Energie in Form von Wärme und Licht vergrößert die Leitfähigkeit. Es werden die Elektronen aus ihren Bindungen herausgerissen. Der Stromfluss wird größer. Bei der Lichteinstrahlung treffen die Lichtteilchen, Photonen genannt, auf den Halbleiterwerkstoff und zerschlagen die Kristallbindungen. Die Elektronen werden regelrecht herausgesprengt. Dadurch erhöht sich die Anzahl der Elektronen und Löcher, also die Anzahl der freien Ladungsträger. Dieser Vorgang wird innerer fotoelektrischer Effekt genannt. Da die elektrischen Eigenschaften aller Halbleiterbauelemente durch Licht beeinflusst werden, verwendet man lichtundurchlässige Gehäuse"

___


Commander Alex schrieb:
@Men_TOS
Ich glaube das ist den meisten hier klar, was Silizium macht, aber die Leistung steigt nicht, warum sollte sie bei gleicher Temp auch steigen wenn die Daten alle gleich sind, der Verbrauch nimmt bei höhrer Temp zu das ist wohl so zimlich das einzige was sich ändert, takten lässt sich das Ding dann auch etwas schlechter weil der Strom höher ist.
Und was war an den Tempangaben nun falsch, die Leistung (nur der Verbrauch) steigt nicht warum sollte sie auch, ein Transistor wird ja nicht schneller wenn er warm ist das wäre nicht so toll wenn eine Schaltung (nicht CPU bei der wäre es ja gut) plötzlich anfängt schneller zu schalten.

Warum nimmt der Verbrauch bei höherer Temperatur zu?
unter Last steigt die Temperatur wegen erhöhtem Verbrauch


ob es für eine Schaltung schlecht ist das sie schneller schaltet ist wohl vom Sinn der Schaltung abhängig, aber ein schnelleres Umschalten hat an sich nichts mit dem SChaltzeitpunkt zu tun

Warum lässt sich das Ding schlechter Takten?
alle Werte außer der Temperatur sollten unverändert bleiben im Vergleich - hier gehts ja um die Temperatur
Men_TOS schrieb:
somit wäre die theoretisch optimale Temperatur der größt mgl. Wert, bevor ein bestandteil der Recheneinheit seinen aggregatzustand ändert um die maximale Leistung zu erzielen (bei gleichbleibendem Takt, HT, FSB, Vcore, ...)
 
Zuletzt bearbeitet:
Der Verbrauch steigt weil der Widerstand kleiner wird, sollt ja klaa sein I=U/R, also höhrer Strom gleich höhre Verlustleistung (P=U*I), ich geh mal davon aus das die Spannung gleich bleibt sie sinkt bei hohen Temps zwar minimal ab, aber das ist zu vernachlässigen.

Das es bei manchen Schaltungen egal ist wie schnell der Transistor schaltet ist klaa, wird wohl der Großteil sein, bei vielen wäre es sogar von Vorteil weil man sich dann evtl. einen Kondensator zum schnellern schalten sparen könnte, aber das Problem ist das der Transistor einen Taktgeber braucht und der bleibt nunmal der gleiche und wird nich hoch getaktet, sonst müsst die Frequenz der CPU auch rauf gehen wenn sie wärmer wird macht sie aber nicht.

Eine kühle CPU lässt sich wegen der geringern Leckströme bei niedriegen Temps besser übertakten soweit ich weiß, weil diese führen zur instabilität der Elektronen und bei extremen Leckströmen verreckt die CPU das ist wie ein Kurzschluss, also wie wenn es bei Überspannung die Isolierung durch haut.
 
Zurück
Oben