CPU zu warm/ zu kalt?

Bresch

Ensign
Registriert
Jan. 2008
Beiträge
176
Hallo Leutz,

ich habe neue Wärmeleitpaste auf die CPU gestrichen, jetzt zeigt mir Speedfan 2 neue daten, die es vorher noch nicht angezeigt hat. Diese heißen Core und Ambient.

Core wird beim normalen Desktopbetrieb etwa 55 und Ambient zw 40-44 Grad warm.
Aber die normalen Werte Core 0 und Core 1 zeigen ca 22-24 Grad an.
Was ist nun der richtige Wert?

Und bei Coretemp wird angezeigt, dass Core 0 35 und Core 1 39 Grad warm ist.

Im Bios sind die CPUwerte bei ca 29 Grad.

Was ist von den 3 Sachen das richtige?
Könntet ihr mir bitte helfen.

(CPU: E4300; RAM: OCZ 800 2GB; MAINBOARD: MSI P35 Neo2 FR ) :(
 
Zuletzt bearbeitet:
Die Cpu Temperatur im Bios könnte stimmen.

Bei CoreTemp, brauchst du eine Version die eine Tj.Max von 85 Grad anzeigt.

Da der E4300 eine Tj.Max von 85 Grad hat.

Am besten kannst du die Kerntemperaturen unter Last vergleichen.

Unter Last, zB. mit Prime müßten Everest, Speedfan, und CoreTemp. ca. die gleichen

Kerntemperaturen anzeigen.

Die Kerntemperaturen sind normalerweise ca. 10-15 Grad höher als die CPU Temperatur.

MfG
 
Zuletzt bearbeitet:
ich halt heute ne 8800gt und wärmeleitpaste bekommen und die paste neu auf die cpu gestrichen. vielleicht is der kühler net gut genug auf der cpu drauf
 
Also ich hab mal die CPU unter Orthos laufen lassen.

Die Werte:
-Speedfan: Core 0: 36 Grad; Core 1: 36 Grad
-Coretemp: Core 0 : 49 Grad; Core 1: 51 Grad

Was ist jetzt richtig?
Oder ist es am besten mal Windows zu formatieren?
 
Noch vertretbare Temperaturen unter Prime, mit deinem E4300:

CPU: ca.50 Grad.

Kerntemperaturen: ca. 65-70 Grad.

Du solltest aber Prime ca. 30 Minuten laufen lassen, um reale Temps. zu bekommen.

Windows brauchst du nicht neu aufsetzen.

Probiere noch eine aktuelle Everest Version.

So oder so sind die Temperaturen sehr gut.
 
Zuletzt bearbeitet:
des hab ich mir auch gedacht, als ich mein gehäuse aufschraubte um den prozessorkühler abzunehmen, dass die graka so warm ist.

ist eine temp von 55 grad bei der 8800gt dann ,,normal"
 
Hi,
also der Wert "Core" steht für den Kern der Grafikkarte und Ambient ist ebenfalls von der Grafikkarte.

Die CPU betreffen nur die Werte Core 0 und 1.


Auf deine Frage hin:
Die Werte sind normal. Meine ältere 8800 GTS 320MB hat auch welche in diesem Bereich, zur Zeit 56° C.

P.S. Windows musst du wegen der unterschiedlichen Werte keineswegs formatieren. Das hat darauf absolut keinen Einfluss. :-)
Ansonsten würde ich immer zu den höheren Temperaturen tendieren. Wenn sie doch niedriger sein sollten als ausgelesen, dann ist ja alles perfekt.

EDIT1: Ich würde übrigens zum Temperaturauslesen noch TAT (Thermal Analysis Tool)empfehlen. Es ist direkt von Intel.
EDIT2: Die unter 100% Workload ausgegebenen Werte sind meist noch ein wenig höher als bei Prime95, und entsprechen damit wirklich der maximal Grenze an die die Temp. geht. Am Besten 30 min. laufen lassen.
 
Zuletzt bearbeitet:
danke für den link
aber trotzdem is des a bissl warm für die 8800gt
da ich vorher ne hd2600xt hatte und die wurde nur ca 30 Grad warm

nochmals danke!!!!!
 
Von mir aus, nix zu danken!;)

Die 8800GT ist auch leistungsmäßig sehr weit über der HD2600XT anzusiedeln.

Die "Power" bezahlt man eben auch mit höheren Temperaturen.

MfG
 
Hi,
mein PC ruckelt bei 3D Anwendungen wie Spiele extrem nach.

Z.b. wenn ich ein Game wie "Dawn of War" zocke. Die Grafik läuft an sich flüssig. Doch nach einiger Zeit ruckelt mein PC kurz für 2 Sekunden. Je länger ich spiele desto schlimmer wird es. Wenn ich die Grafik runterdrehe bringt es nichts. Bei der "Kane und Linch" Demo ist es auch so. Grafik runtergeschraubt. An sich läuft es flüssig doch dann kommen immer wieder Nachladeruckler.

Ich verstehe das nicht denn, ich bin Filmemacher und rendere z.b. Aufwändige Effekte am PC oder rendere einen Film. Da passiert nix. Es läuft alles problemlos.

Mein PC:

Intel 2 Kern 6300
1GB Noname Ram (4-4-4)
Geforce 6600 GT
MSI P6N SLI

Kann mir jemand helfen?

Speedfan sagt:

LOCAL: 45C
Remote: 51C
Temp1: 62C
Temp2: 34C
Temp3: +127C !!!
HD1 25C
Core0 64C
Core1 64C
Core 55C

Die Temp3 macht mir Sorgen! Von MINUS 128 auf PLUS 127Crad!
 
Ich würde einmal zum auslesen der Temperaturen "Everest" verwenden.

1GB Ram ist sowohl für Games als auch für die Filmbeabeitung herzlich wenig.

Auch die Geforce 6600 GT ist nicht unbedingt eine "Zockerkarte",

aber für die oben genannten Games müßte Sie schon reichen.

Ich nehme an auch die Patches für "Dawn of War" sind installiert.

http://www.dawnofwar-game.de/downloads/

Bei Temp 3 tippe ich auf einen Auslesefehler.

Wie gesagt , einmal mit einer aktuellen Everest Version auslesen.

Sind die oben genannten Temps. unter Last?

Wann wurde der PC das letzte Mal gereinigt?

MfG
 
Zuletzt bearbeitet:
cyberpepi schrieb:
Die 8800GT ist auch leistungsmäßig sehr weit über der HD2600XT anzusiedeln.

Die "Power" bezahlt man eben auch mit höheren Temperaturen.

MfG

Das sehe ich nicht so (das mit der Leistung natürlich schon :D), wegen dem Temperaturen:
zumindest nicht im Idle, aber unter Last ja, vermute eher die Lüfter springen einfach später an (um das Ganze leiser zu halten) und der verwendete Kühler reicht im Idle der GPU nicht aus, um weiter runter zu kühlen. Mit einer Heatpipe wäre der Wert sicher niedriger, die G92-Chips sollten im Idle recht wenig Strom aufnehmen. So ein Kühler-Lüfter-System soll ja die gesamt Bandbreite der Temperaturen bewältigen können, das sind bei einer GPU eben Lastzustände, da darf man wohl wegen erhöhtem Idle-Temp.-Wert nicht meckern. Ist ja auch o.k. so.
 
@doesntmatter

Willst du damit vielleicht sagen das eine HD2600XT GDDR3 mit gleichem Kühler, genauso warm

im Idle wäre wie die 8800GT?

Da spricht aber die Leistungsaufnahme der 8800GT, gegenüber der normalen HD2600XT GDDR3 im Idle dagegen. (über 30W mehr);)

Links:

https://www.computerbase.de/artikel/grafikkarten/ati-radeon-hd-2600-xt-gddr3-roundup-test.685/seite-11#abschnitt_leistungsaufnahme

https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-8800-gt-sli-test.707/seite-28#abschnitt_leistungsaufnahme


Deshalb auch meine Aussage, das man die "Power" einer 8800GT gegenüber einer

normalen HD2600XT eben auch mit höheren Temperaturen bezahlt.

Sowohl im Idle als auch unter Last.

MfG
 
Zuletzt bearbeitet:
Meine Aussage bezieht sich auf deinen zweiten Satz, nicht speziell auf den Zusammenhang 8800GT vs. HD2600XT.

Beide mit identischem Kühler/Lüfter ?
Kann ich nur mutmaßen, wurde das schon mal verglichen ? Da geht sicher mehr ein als nur der Takt, Speicher, Kühleroberfläche, Pads oder Paste. Gibt es den harte Fakten über die Aufnahme der Chips im Grund-Takt und der entsprechenden RAM ? Da bräuchte man quasi Laborbedingungen. Wäre hinsichtlich Effizienz interessant, aber für die Praxis ?

Was ich sagen will: der Hersteller konzipiert sein Kühlsystem für die ganze erwartete Last, zulässige Temperaturen, gewünschte Lautstärke etc.

Und wir haben über Idle gesprochen ! Eine gute Heatpipe würde meiner Meinung nach den Idle-Tem.-Wert senken. Was aber nicht unbedingt wünschenswert sein muss, man will ja mit der Grafikkarte spielen, also max. Leistung bei unkritischen Tem.-Werten (also ohne Abstürze wegen Abschaltung). Wenn eine Heatpipe also in den höheren Temp.-Berechen versagt, nützt einem der tolle Idle-Wert nichts.

Höhere Temperaturen bedeuten im Umkehrschluß aber nicht mehr Leistung (Beispiel HD2900Pro). Weil man das montierte Kühlsystem beachten muss, Effizienz der Technologien u.a. Zwei solche Kühlsystem zu vergleichen ist bei versch. Platinenlayouts aber unmöglich, bei gleichen Platinen haben Heatpipe-Lösungen ja schon niedrigere Temperaturen bei gleicher (!) Leistung gezeigt.

Zu deinen Links: wenn du daraus einen direkten Zusammhang Leistungsaufnahme Gesamtsystem > Temperaturen GPU herstellen willst, behaupte ich mal, da spielen noch andere Faktoren mit.

Zu deinem Zusammenhang HD2600XT und 8800GT:
Unter Last hast du sicher recht, irgendwoher muss ja die Leistung kommen, im Idle sollte die 8800GT aber nicht mehr gefordert sein als die HD2600XT, die Unterschiede sehe ich - wie oben - mehr im Gesamtdesign der Grafikkarten. Meine alte X1900 verbraucht bei niedrigeren Temperaturen 35 Grad (Heatpipe) im Idle mehr als die neue HD3850 (47 Grad, Single Slot-Kühler). Setze ich die HD3850 auf die gleichen Taktraten (GPU, RAM) steigt die Temp. sofort um 5 Grad an. Hier zeigen sich die Chipdesign-Vorgaben. Unter Last verbraucht die X1900 bis 15 Watt mehr Strom als die HD3850, die einen doppelt so hohen 3DMark06-Wert erreicht, aber: die X1900 bleibt trotz mehr Stromaufnahme (!) kühler dabei, max. 70 Grad gegenüber 95 Grad. Es hängt von den Vergleichsmodellen und deren Kühler ab, meine Meinung. Vergleiche G80 und G92 zeigen ja Ähnliches.
 
Wir reden leider aneinander vorbei.

Es ist ja unbestritten das die Art des Kühlers, und die Lüftergeschwindigkeit, die

Temperatur der GPU bestimmen.

Das es keine Vergleichswerte mit gleichem Kühler zwischen der HD2600XT, und

der 8800GT gibt, dürfte uns Beiden klar sein.

Aber das die Stromaufnahme einer Grafikkarte sehr wohl Einfluss auf die Temperatur

Dieser, unabhängig von der Kühlkonstruktion hat, dürfte auch klar sein.

Ich hatte selbst eine X1950XT, und das die X19.. Serie kühler ist, als die HD3850/3870

kann ich nicht bestätigen.

Die Temperatur der HD3870 von 90-95 Grad unter Last, basiert auf einer extrem

konservativen Lüftersteuerung.

Die 47 Grad im Idle der HD3870 sind damit zu erklären, das sich bei mir der Lüfter des

Kühlers bei dieser Temperatur noch nicht einmal zuschaltet.

Das war bei meiner X1950XT undenkbar.

Können wir uns darauf einigen:?

Unabhängig von der Kühlkonstruktion: Mehr Leistungsaufnahme = mehr Wärmeabgabe.

MfG.
 
Zuletzt bearbeitet:
cyberpepi schrieb:
Ich hatte selbst eine X1950XT, und das die X19.. Serie kühler ist, als die HD3850/3870 kann ich nicht bestätigen.

...

Unabhängig von der Kühlkonstruktion: Mehr Leistungsaufnahme = mehr Wärmeabgabe.

Kann nur sagen, wie es bei mir ist: meine (konkrete) X1900 ist kühler mit der Heatpipe, Aussagen über die X1900-Serie will ich gar nicht machen, da ja die AIW auch einen Sonderstatus hinsichtlich Takt, RAM, Tuner-Chip usw. hat. Soll hier aber nicht als Argument gelten, nur als Beispiel.

Ja wir können uns darauf einigen (wenn du es unbedingt hören willst), daß mehr Stromaufnahme von einer Grafikkarte mehr Wärmeabgabe bedeutet, so ist ja Leistung in der Einheit Watt definiert. Die einzige Einschränkung, die ich gemacht habe, ist: dieser Umstand muss nicht heißen, daß diese "Wärmeabgabe" unbedingt an der GPU zu messen ist, sondern - wegen des Chip- und Platinendesigns bspw. am RAM, am Spannungswandler oder wo auch immer abfällt, die eine GPU kann trotzdem kühler bleiben als eine andere GPU, die weniger oder mehr Leistung - gemessen in Performance - für den Anwender auf den Bildschirm bringt.

"Unabhängig von der Kühlkonstruktion", dazu bin ich der Meinung, daß - siehe meine letzten Ausführungen - wir das nicht sagen können, weil das Laborbedingungen sind. Keiner von uns kennt die technischen Daten des isolierten G80, G92, RV600 usw. Betrachten wir die Grafikkarte und den Rechner insgesamt als Box, in den Strom reinfließt, so muß es eine entsprechende Wärmeabgabe aus dieser Box heraus geben, stimme da völlig zu. Wir beobachten nun - in Testergebnissen - die Wärmeabgabe an einem messbaren Punkt und ziehen Schlüsse daraus für diesen einen Punkt, nicht aber für die größere Einheit Grafikkarte oder das Zusammenspiel von GPU, Grafikkarten-Design, PCIe-Bussystem, Northbrigde, CPU usw. usf. Provokante These: vielleicht sind es schlicht Fehler im DirectX-Treiber, der im Board oder in der CPU Rechenroutinen zur Kompensation auslösen, um dennoch eine sog. Grafikleistung herzustellen. Wir lesen in den News der Hersteller immer nur von reiner Rechenleistung der GPU in FLOPS u.ä., im gleichen Maße dieser Steigerungen ist die Spieleleistung ja nicht gestiegen, ergo Reibungsverluste, primitiv gesagt.

Beispiel hierfür wäre ein Crossfire-System auf PCIe 2.0, dessen beobachtete Mehrleistung offensichtlich durch den erhöhten Datenverkehr der beteiligten Grafikkarten auf diesem breiteren Bus beruht, davon also profitiert, wozu können wir die dabei anfallende Stromaufnahme rechnen, zu den Grafikkarten oder zum Board ? Wir beobachten mehr Stromaufnahme des Gesamtsystems und schreiben sie gerne den Karten zu, sie erbringen ja während der Messung einen Output, also muss es so sein, nicht wahr. Den Anteil des PCIe-Bus, dessen evtl. erhöhte Stromaufnahme können wir nicht messen, unterschlagen wir. Das sind so die Dinge, die mich beschäftigen, angeregt durch meinen leichten Einspruch. Ist jetzt aber sehr off-topic, sorry :rolleyes:

Nebenschauplatz ist die Performance der X1600-X1900-Serien als Grundlage des GPU-Client für folding@home, der ja die Rechenleistung der Chips ganz anders nutzt und über DirectX anspricht. Bei meinem Test mit der X1900 unter verschiedenen Boards (PCIe 4x und PCIe 16x), war die Stromaufnahme im PCIe 16x-Board deutlich höher, was nur heißen kann, diese Aufgabenstellung kann besser über den Bus abgearbeitet werden, tatsächlich entwickelt die X1900 dort mehr Leistung (schnelleres Abarbeiten, mehr ppd), die Temperatur stieg auch leicht an, trotz gleichem Takt, sehr interessant, sie dreht quasi im Grundtakt "höher", kann´s nicht anders beschreiben.

Davon unabhängig kann ich jedoch - was doch nicht so abwegig ist - deiner Annahme nicht zustimmen, daß eine höhere Performance mit einer höheren Wärmeabgabe sozusagen gesetzmäßig verbunden ist. Beispiel HD2900Pro denke ich veranschaulicht diesen Zweifel. Noch deutlicher (dito in anderen Worten): nur weil der Chip heißer wird, ist er nicht schneller. Das soll aber nicht mein Fazit aus unserem Disput sein, nur ein Aspekt.

Und ja, zwischen HD2600Xt und 8800GT hast du ziemlich sicher recht, wollte nicht dieses eine Beispiel anzweifeln, hab ich auch gesagt. Kann ich jetzt den advocatus diaboli bitte wieder abtreten ? Wollte mich hier nicht in Haarspalterei ergießen, vielleicht haben wir wirklich aneinander vorbei schwadroniert, ist von meiner Seite geklärt.

:bussi:
 
Da für mich ein Vergleich zwischen der HD2600XT und der 8800GT ein Extrembeispiel war,

glaubte ich nicht soweit ins Detail gehen zu müssen, um alle Aspekte anzuführen.

Ich wollte es eben in einfachen Worten erklären, ohne näher darauf einzugehen.

Das dieses Thema natürlich viel komplexer ist, bei dem viele andere Faktoren eine erhebliche

Rolle spielen, da gebe ich dir vollkommen Recht!

Es war mir ein Vergnügen deine detaillierten Ausführungen zu lesen.;)

MfG
 
Zurück
Oben