Das Märchen von der Temperatur

waldorf

Lieutenant
Dabei seit
Feb. 2004
Beiträge
592
Irgendwo in den Weiten des Netzes habe ich mal gelesen „Wer viel misst, misst viel Mist!:D. Bestätigt wurde diese Aussage durch den in der (noch) aktuellen Ausgabe von PCGH vorgenommenen <Vergleich> von verschiedenen Mainboards ausgegebenen Systemtemperaturen unter gleichen Bedingungen. Oder gibt es für das dort gezeigte Phänomen doch eine andere Erklärung, wie z.B. das Board-Layout oder unterschiedliche Messmethoden, als das lustige Einprogrammieren von Sicherheitspuffern durch die Hersteller?

Die aufgelisteten Temperaturdifferenzen von bis 9°C sind eigentlich zu hoch um sie auf Layout Variationen (Abstand der MOSFETS, Elkos, Spannungswandler zum Sockel) zu reduzieren. Unterschiedliche <Messmethoden> (Thermaldiode, Temperatursensor, Sockelfühler) könnten hier schon eher eine plausible Erklärung sein ...

Seit der Einführung des Athlon XP verfügen AMD Prozessoren über einen PIN (THDC), über welchen die Kern- oder auch Diodentemperatur ausgelesen werden kann/soll. Allerdings sind nicht alle Mainboards - genauer gesagt nur wenige - in der Lage diese auszulesen und den ausgelesenen Wert auch entsprechend im BIOS oder per Monitoring Software auzugeben.

Ob nun ein Board diese Fähigkeit besitzt oder nicht ist abhängig von der Verwendung kleiner Monitoring-Chips, welche die Temperatur auslesen, insbesondere deren Fähigkeit den ausgelesenen Messwert weiter zu geben.

Ein auf Sockel A Mainboards häufig verwendetes Modell ist der Attansic <ATTP X> <s. Abbildung 1>. Leider kann gerade dieser gerne verwendete IC den ausgelesenen Wert nur für Zwecke des hardwareseitigen Überhitzungsschutzes nutzen. D.h. der Chip liest zwar die Diodentemperatur aus und schaltet das Mainboard bei Erreichen einer einprogrammierten (nicht per BIOS-Einstellung änderbaren!) Shut-Down-Temperatur ab, aber damit enden auch seine Fähigkeiten. Mainboards, welche mit einem Attansic ausgestattet sind, müssen folglich einen weiteren externen Sensor zum Ermitteln der CPU Temperatur verwenden. Dies geschieht dann, wie oben bereits erwähnt/verlinkt, durch messen der Temperatur im Sockel (Sockeltemperatur). Diese (externe) Messmethode hat gegenüber dem Auslesen der internen Thermaldiode den Nachteil, dass sie erstens immer deutlich niedriger ist, als die Kerntemperatur, zweitens auf Belastungswechsel des Prozessors äußerst träge reagiert und drittens der Sensor auf der Platine befestigt ist und somit durch die Leiterbahnen auch Wärme von außerhalb des Sockels zugeführt bekommt.

Dagegen verwenden die Mainboards, welche den von der internen Thermaldiode ausgelesenen Temperaturwert auch tatsächlich an ein Monitoring-Tool bzw. das BIOS übergeben können andere Überwachungschips, wie den Winbond <W83L785TS-S> <s. Abbildung 2> oder den <LM90> von National Semiconductor. Wie oben dargestellt hat diese Messmethode grundsätzlich den Vorteil, dass sie genauer ist und auch Temperaturspitzen bei plötzlicher Belastung darstellen kann, die bei externen Sensoren einfach „gebügelt“ werden. Ein Vergleich der Sockeltemperatur, welche in der Regel auch auf diesen Boards zur Verfügung gestellt wird, mit der Temperatur der Thermaldiode zeigt dies deutlich.

Eine recht gute Übersicht, welches Mainboard nun welche Messmethode verwendet findet man auch der <MotherBoardMonitor Website> sowie die Bezeichnung des entsprechenden Sensors. Leider wird wohl diese Liste genau wie der MotherBoardMonitor nicht weiter entwickelt werden und ist auch nicht ganz frei von Fehlern (z.B. ASUS A7N8X-E Del., wie nachfolgend dargestellt).

Zurück zum PCGH-Artikel und der Möglichkeit einer Erklärung. Ich habe mich mal im Netz auf die Suche nach Bildern der Sockelumgebung der im besagten Artikel angesprochenen Sockel A Mainboards gemacht, um festzustellen, welcher IC auf welcher Platine zum Einsatz kommt <s. Abbildung 3>. Leider haben nicht alle Bilder die beste Qualität, aber das Wesentliche, nämlich der verwendete Monitoring-Chips (ATTP, Winbond oder LM90) lässt sich doch zumindest erkennen/erahnen. Daraufhin habe ich die Tabelle PCGH-Tabelle um die jeweilige Messmethode erweitert <s. Abbildung/Tabelle 4>.

Wie man ziemlich gut erkennen kann, gibt es wohl keinen Zusammenhang zwischen den deutlich unterschiedlichen Messwerten und der verwendeten Messmethoden. Lediglich das Albatron und das DFI liefern unter Verwendung des Winbond-Chips gleiche Werte, allerdings - trotz der Möglichkeit des Auslesens der Thermaldiode, welche ja grundsätzlich höher sein sollte - auch die niedrigsten. :confused_alt: Die Verwirrung ist komplett und steigert sich zum Irrsinn, wenn man auf Herstellerseiten solche Informationen/Halbwahrheiten wieder findet, wie:
Zitat von ASUS zum C.O.P. Überhitzungsschutz:
… die C.O.P-Technologie zum Einsatz, entstehen bei Schwankungen der CPU-Temperatur Spannungsschwankungen an zwei speziellen Pins der AthlonXP-CPU …
oder
Zitat von MSI-FAQ zum K7N2 Delta:
Eine logische Erklärung für die Abweichungen der Messwerte verschiedener Messwerte scheint es somit wohl nicht zu geben. Was bleibt ist die Erkenntnis, dass die Mainboardhersteller mehr oder weniger bewusst ihre Kunden ein Hardwaremonitoring verkaufen, was diesen Namen eigentlich nicht verdient und dass das oben kursiv geschriebene Zitat eigentlich fett und unterstrichen hätte formatiert werden müssen.;)

Cool down,
 

Anhänge

Zuletzt bearbeitet:

RonnySteele

Lt. Commander
Dabei seit
Jan. 2003
Beiträge
1.879
Mit anderen Worten: Es ist wie immer alles beim Alten.
Daß die Temperatursensoren auf dem Mainboard lediglich
Richtwerte liefern, dürfte jedem klar sein. Ein Mainboard
ist bitteschön ja kein Temperaturmeß-Präzessionsgerät.
Man kann die Temperaturwerte als Anhaltspunkt nehmen,
wenn auf ein und demselben Board was übertaktet wird.

Unterschiedliche Boards zu vergleichen ist totaler Unsinn,
ist doch klar, daß dort Mondwerte rauskommen.

Schon allein wenn man zwei Boards des selben Typs
vergleicht, werden sich Unterschiede zeigen. Das sind
halt Fertigungstoleranzen.

-Ronny
 

waldorf

Lieutenant
Ersteller dieses Themas
Dabei seit
Feb. 2004
Beiträge
592
Zitat von RonnySteele:
Mit anderen Worten: Es ist wie immer alles beim Alten.
Daß die Temperatursensoren auf dem Mainboard lediglich
Richtwerte liefern, dürfte jedem klar sein. Ein Mainboard
ist bitteschön ja kein Temperaturmeß-Präzessionsgerät.
Man kann die Temperaturwerte als Anhaltspunkt nehmen,
wenn auf ein und demselben Board was übertaktet wird.

Unterschiedliche Boards zu vergleichen ist totaler Unsinn,
ist doch klar, daß dort Mondwerte rauskommen.

Schon allein wenn man zwei Boards des selben Typs
vergleicht, werden sich Unterschiede zeigen. Das sind
halt Fertigungstoleranzen.
Das ist nun wiederum auch nichts Neues ;) und ich kann Dir da eigentlich (leider) nur Recht geben. Aber warum muss dass denn so sein? Wie man sieht besteht doch die Möglichkeit die Kerntemperatur auslesen und auch anzeigen zu lassen, warum wird das nicht von sämtlichen Herstellern auch so umgesetzt? Ein Beispiel: Das A7N8X Deluxe war mit dem o.a. Winbond-Chip bestückt und konnte Thermaldiodenwerte ausgeben; der Nachfolger das A7N8X-E bekam wieder einen Attansic verpasst und liefert nur noch die Sockeltemperatur :confused_alt:

An den Kosten sollte es kaum liegen, der LM90 kostest laut Nat.SC rund 1,50$. Und warum das Einprogrammieren von Sicherheitspuffern bzw. nach unten geschönten Werten, wenn man den Überhitzungsschutz hardwareseitig sicher stellen kann?

Wenn die Boards schon mit Monitoring-Funktionen ausgestattet werden, dann doch mit solchen, die zumindest zuverlässige Werte ausgeben. Auf das letzte Grad Celsius kommt es hierbei weniger an. Wichtiger wäre vielmehr, dass der Normaluser nicht durch überhöhte Werte verunsichert wird bzw. durch verschönte Werte in Sicherheit gewogen.:(

Regards,
 
Zuletzt bearbeitet:

RonnySteele

Lt. Commander
Dabei seit
Jan. 2003
Beiträge
1.879
Nur...auch die Kerntemperatur selbst ist nicht soooo furchtbar genau. Auch da
gibt es Schwankungen um mindestens +/- 5°C, was die Genauigkeit betrifft.
Ist halt nur 'ne Halbleiterdiode im Core, die ausgelesen wird, und kein
Präzesions-Temperatursensor.
Kannst du auch ganz einfach ausprobieren, indem du mehrere seriengleiche
CPUs bei gleichem Takt und gleicher Spannung auf dem gleichen Board
testest. Da bekommst du jedesmal andere Temperaturwerte von der Diode.
Und ob die Mondwerte nun vom Board kommen oder von der Diode ist mir
auch egal. Einziger Unterschied ist halt, daß die Diodenwerte nicht so träge
reagieren, da direkt im Kern abgelesen wird.

-Ronny
 

waldorf

Lieutenant
Ersteller dieses Themas
Dabei seit
Feb. 2004
Beiträge
592
Auch klar, dass Fertigungstoleranzen aufgrund unterschiedlicher Produktionsstätte, Kern und Produktionsdatum ebenfalls zu Varianzen führen können. Aber müssen zu diesen Abweichungen auch noch ungenaue Messmethoden und Anpassungen der Messwerte kommen um die Aussagekraft vollständig zu nivilieren? Vor allem wenn es technisch zumindest besser möglich ist?

Greetz,
 
Zuletzt bearbeitet:

De4thFloor

Banned
Dabei seit
Dez. 2002
Beiträge
1.566
Da du in diesem Thread explizit nur auf AMD-Systeme eingehst, möchte ich Intel-Plattformen nicht außen vorlassen. Gerade unter den am weitesten verbreitenden Mainboards der Hersteller Asus und Abit herrscht dort eine enorme Differenz beim Auslesen der CPU-Temperatur, die oft nur zu Missverständnissen führt.
Wenn jemand sagt, er hätte mit Boxed-Kühler nur 40°C unter Last, weiß ich schon in Vorraus, was für ein Mainboard er hat - es dürfte sich mittlerweile rumgesprochen, dass Asus eindeutig zu geringe Temperaturen ausliest, Abit dagegen zu hohe. Nichtsdestotrotz hier noch mal (zum 10. Mal ;)) der Link zum Temperaturvergleichstest zwischen Asus P4C800E Dl und Abit IC7:
http://www.bleedinedge.com/reviews/abit_asus_temps/abit_asus_temps_01.html

Das erschreckende Resultat: Asus liest im Vergleich zur real gemessenen Temperatur 5-7K zuwenig aus, Abit 10-13K zu hoch. Macht eine Differenz von 15-20K :rolleyes: Ohne Abit in Schutz nehmen zu wollen, aber ich finde es persönlich besser, wenn ein Hersteller ein Sicherheitspolster draufpackt, anstatt dem ahnungslosen Benutzer eine Traumtemperatur vorzugaukeln. Zu Zeiten meines Asus P4P800 hatte ich teilweise unter 20°C im Idle (2.40C), was mit Luftkühlung (Zalman) garnicht möglich ist.

Für Abit gibt es mittlerweile ein BETA-BIOS, dass die Temperaturen fixen soll, allerdings bewirkt dass nur beim Prescott etwas und die Temp.-Änderung beträgt nur 5K nach unten.

Zu Zeiten meines Asus habe ich selbst nicht an diesen Temp-Unterschied Schwachsinn zwischen Abit und Asus geglaubt, aber nach meinem Wechsel auf das Max3 wurde ich eines besseren belehrt...Die Temperaturen stiegen bei identischer Konfiguration schlagartig um 15K.

Also, glaubt keinem Temp-Wert den ihr nicht selbst gefälscht habt. Für Vergleiche zwischen identischen Systemen sind die Dioden-Temperaturen sicherlich zu gebrauchen, oder um Relationen (bei Wechsel der Kühlung, z.B. von LuKü auf Wakü) zu erkennen, aber niemals um unterschiedliche Systeme miteinander zu vergleichen!
 

Michael

Re-aktions-Pinguin
Dabei seit
Okt. 2002
Beiträge
3.210
Interessanterweise bekommt man auch unterschiedliche Werte, je nachdem, welches Programm zum Auslesen der Chips man verwendet. Unter Linux gibt es mehrere Projekte - aber alles unausgegoren. Da kann man sich wirklich nicht drauf verlassen.
Ich tippe mal, daß die Hersteller der Mainboards wünschen, daß der Zubehörhandel sich um soetwas kümmern soll. Je höherwertiger diese Dinge, desto kostenintensiver. Und das rechnet sich im Massenmarkt nicht. Wer brauchbare Werte haben möchte, soll sich wohl ne Extra-Karte mit eigenen Sonsoren kaufen.

Allerdings fände ich es auch prima, wenn der Wert an dem einzelnen Pin des Prozi's in ein spezielles Register des Prozies geschrieben werden würde.
 

Otternase

Captain
Dabei seit
Jan. 2004
Beiträge
3.509
Ich hatte mein xp 2500 erst im MSI ..ILSR dann im Abit AN 7 nach zerschießen im Leadtek ... pro 2 dann im Epox RDA3+ Rev 1.1 und 1.3

MSI ups geht nicht war noch Luftkühlung :D

Abit 36 idle
Leadtek 33 idle
Epox 32 idle
Mit alter Wakü bei gleicher WLP und Vcore.

Asus hab ich zwar auch zusammengeschustert aber nicht für mich und die Temps waren immer besser zwar mit ner anderen CPU aber naja.

Lieber einen höheren Wert als TraumWerte. Ich hab einen Wassertempfühler und dem Vertrau ich auch wenn ich durch meine erfahrungen dem Guru traue ;)
 

Kongo-Otto

Lt. Commander
Dabei seit
Aug. 2002
Beiträge
1.584
Bei solchen unausgegoren Messverhalten, frage ich mich immer:

Wozu gibt es Standards?

Jeder sch... wir festgelegt wie z.B die Lage der NB zum Sockel, Position des Sockels auf dem MB, "Bleibweg-Zone", Dimensionen der Spannungswandler etc. aber eine einheitliche Methode des Hardwaremonitoring klappt nicht.
 
Zuletzt bearbeitet:

De4thFloor

Banned
Dabei seit
Dez. 2002
Beiträge
1.566
Zitat von Kongo-Otto:
Jeder sch... wir festgelegt wie z.B die Lage der NB zum Sockel, Position des Sockels auf dem MB, "Bleibweg-Zone", Dimensionen der Spannungswandler etc. aber eine einheitliche Methode des Hardwaremonitoring klappt nicht.
Da täuscht du dich aber, zumindestens bei Intel entwickeln Hersteller wie Abit ihre eigene Layouts (z.B. um 45°/90° gedrehter Sockel) in der Hoffnung, durch kürzere Signalwege zu profitieren.
 

Kongo-Otto

Lt. Commander
Dabei seit
Aug. 2002
Beiträge
1.584
@De4thFloor
Wir haben beide recht!
Ich meine das Grunddesign. Da ist festgelegt in welchen Bereichen sich der Sockel zu befinden hat (Thema Luftzirkulation) bzw in welchen Bereichen Bauteile gewisse höhen nicht überschreiten dürfen (Kühlermontage). Wie das nun genau aussieht ist in der Tat von Hersteller zu Hersteller leicht unterschiedlich. Nur sehen halt die ATX-Boards von der Grundstrukur sehr ähnlich aus.

Was ich aber eigentlich meine, ist das bei neuen Prozessormodellen mit höherer Leistungsaufnahme die ATX Spezifikationen dahin geändert wurde/werden, daß gewisse Spannungswandler leistungen vorgeschrieben werden, mit zum Teil recht hohen Kosten für die Hersteller.
Nur Bei einer Angelegenheit wie dem HW-Monitoring gibt es keine prinzipielle Regelung und jeder Hersteller prutscht sich seine eigene Suppe zusammen.

Es sollte meiner Meinung nach doch möglich sein festzulegen welche Sensoren vorhanden sein müssen und in welcher Reihenfolge die angezeigt werden und eine einheitliche Position und Empfindlichkeit von externe Ausleselösungen.
 
Zuletzt bearbeitet:

Endurance

Lt. Commander
Dabei seit
Juli 2002
Beiträge
2.008
DU hast oben bereits ein Problem angeschrieben: Die interne Temperaturdiode der Athlon XP Prozessoren. Das gleiche gilt für eine Intel CPU.

Da mit einer Diode gemessen wird und eine Diode eine ncihtlineare Kennlinie aufweist (zwar eigentlich Strom-/Spannungskennlinie, aber damit wird die Temperatur abgeschätzt) ist es eigentlich kein Fehler der Mainboardhersteller, dass die Temperaturen von Board zu Board schwanken. Es kommt darauf an, welchen Arbeitspunkt der Hersteller voraussetzt und dann die Kennlinie um diesen Bereich linearisiert. Je weiter der AP links im UI-Diagramm genommen wird, desto flacher die Steigung und desto geringer die Werte. Die Werte sind genauso richtig oder falsch, wie dei auf anderen Boards, nur wird hier der AP für die Errechnung der Temperatur halt anders gewählt.

Dann kommt noch ein weiteres Problem: Die VCore. Viele Hersteller setzen die Standardmäßig leicht höher, z.B. 1,53 statt 1,5 Volt, 1,68 statt 1,65.

Das nächste Problem ist die mit der Produktion verbundene alternierende Qualität der Dioden. Da bereits kleine Änderungen der technischen Charakteristika einen exponentiellen Einfluß auf das Ergebnis habe sind Unterschiede von 3-4° allein durch die "Qualität der Diode" zu erklären.

Aber das ganze ufert schon etwas aus.

Natürlich hast Du recht, wenn Du sagst, dass manche Hersteller einen Monitoring-Chip nur zur Abschaltung bei einer festen Temperatur bestimmt durch die interne Diode und einen weiteren zur Auslesung der Temperatur mittels externem Fühler haben.

Aber hier muß man bedenken: Wenn ein "Normal-User" eien Rechner kauft, der die exakte Temp der internen Diode ausgibt, dann gibt's bald Ärger, weil es heißt: Meine Temperatur ist trotz besserm Kühler/Lüfter höher als die von XY. Der hat sogar ein billigeres Board. Bei Ihnen ist es teuerer und dann wird der Prozessor auch noch heißer. usw. Was dann auf die Service-Mitarbeiter losgelassen wird ist schlicht unerträglich.

Eine interessante Alternative wäre es, dem Benutzer die Wahl des Sensors im Bios zu überlassen. Standard ist der externe Sensor zur Tempanzeige und jeder, der ins Bios geht, sollte wissen, was er macht und dementsprechend wäre keine Schwemme von Anrufen bei den Hotlines zu erwarten.

CU Endurance
 

Kongo-Otto

Lt. Commander
Dabei seit
Aug. 2002
Beiträge
1.584
Aber genau da liegt doch der Hund begraben.
Wenn es eine Richlinie gibt, die sagt es wir nach Kennlinie X ausgelesen und an Register/Adresse Y bereitgestellt, haben alle den selben Fehler und die Riesen Unterschiede von z.T. mehr als 10° gibt es nicht mehr.
 

paebulteki

Cadet 4th Year
Dabei seit
März 2004
Beiträge
97
Die interne Diode liefert zwar genaue und schnelle Meßwerte, aber das Problem ist, daß die Temperatur- Spannungskennlinie dieses P/N- Übergangs von Chip zu Chip abweicht. Der Hersteller müßte also eigentlich diese Kennlinie mitliefern, damit die Messung auch genutzt werden kann.

Die Temp. Messung am CPU-Sockel erfolgt mit einem NTC- Widerstand, dessen Kennlinie "von der Stange" bereits sehr gut reproduzierbar ist.

Daher ist diese Messung eigentlich genauer, wobei es natürlich die schon erwähnte Zeitverzögerunge und die Temperaturdifferenz Chip außen/innen gibt.
 
Top