Wird die CPU durch die Nutzung der iGPU wärmer?

Pyramid

Cadet 3rd Year
Registriert
Jan. 2013
Beiträge
55
Hallo,

Ich frage mich seit einigen Tagen, ob die CPU (bspw. i5 3570k) durch die Nutzung der iGPU (Intel HD 4000) wärmer wird. Wenn dem so ist, frage ich mich noch, wenn man eine Grafikkarte ins System integriert, ob die CPU dann kühler wird, da die iGPU ja nichtmehr genutzt wird. Würde man es überhaupt merken, oder würde die Abwärme der Grafikkarte (die ja nach oben steigt?) die CPU wieder wärmer werden lassen, und so den Effekt negieren?

Ich hoffe man versteht meinen Gedankengang. Über eine Antwort würde ich mich sehr freuen.
 
alle fragen sind mit ja zu beantworten; inwiefern die temperaturunterschiede hinsichtlich der letzten frage ausfallen, ist irrelevant und schwer zu messen: entweder du bist auf ne separate grafikkarte angewiesen und nutzt diese oder eben nicht.
 
iGPU ist sich krasses stromverbrauch -> wird sich wärmer

allerdings ist der stromverbrauch sehr gering (vorallem im verhältnis zur restlichen cpu) und außerdem sind die Bereiche auch nicht dierekt zusammen.
Alles im allem würde ich sagen das es, vorsicht schätzwert, vielleicht zwei grad ausmacht.

Aber da du ein Brett und eine cpu hast mit dem du selbiges testen kannst...
ich freue mich auf die ergebnisse ;)

P.S.: aber vorsicht, du solltests es mit einer externen gpu machen um das ergebniss nicht zu verfälschen
 
P.S.: aber vorsicht, du solltests es mit einer externen gpu machen um das ergebniss nicht zu verfälschen
Könnte ich nicht reintheoretisch eine schon vorhandene Grafikkarte nehmen, und diese mit Hilfe einer PCIe-Verlängerung außerhalb des Gehäuses nutzen?
 
Ironie an :

Nein im IGPU Teil fliessen keine Elektronen sonderen Antielektronen die machen alles Kühler . Da sitzt nur ein Antielektronkontrolleur zwischen IGPU und CPU und schon klappt das .

Ironie aus .

So langsam frag ich mich echt wofür manche Leute das Ding oben zwischen den Schulterblättern nutzen .

Physik 8-9-10 Klasse .... sollte doch jeder gehabt haben und da weis man das wenn Arbeit verrichtet wird es immer
einen Teil davon als Wärme auf der "Strecke" bleibt .
 
Ich finde die Frage gut! Und diese "Ironie an ... Ironie aus"-Geschichte ist lächerlich!

Könnte mir vorstellen, dass auch wenn die iGPU nicht aktiv genutzt wird, sie trotzdem Strom frisst und damit wärme erzeugt.
Weiß das aber nicht.

Ich habe noch einen Q6700. Da lassen sich Kerne im BIOS abschalten. Wenn ich 2 der 4 Kerne abschalte, bringt das in der Temperatur rein gar nix! Die Abwärme ist die gleiche.

Das müsste mal getestet werden...
 
Er fragt ob sie durch Nutzung Wärmer wird ... Da bisher kein Perpetuum Mobile erfunden wurde heist es ... ich nutze Energie sie wird verbraucht es MUSS Wärme entstehen .

Und da diese CPU´s je nach Wärme einen Turbomodus haben wird ja das auch wieder ausgenutzt . Der eine Teil verbraucht weniger also kann der andere Teil etwas mehr sich genehmigen .

Mann muss bei den ganzen Theorien immer den maximalen Leistungszustand nehmen denn alle zwischenschritte zeigen ja keine wirklichen konstanten Ergebnisse .

@ radekubardo welche Abwärme ist dann die gleiche ?
Kerntemperaturen vorher nachher verglichen ? ( mit welchem Programm )
Wenn dann wie und unter welchem Szenario ? ( Unter Last oder mit nem Spiel oder Prime95


Wer weiter Fachsimpeln will wie das ist wenn ich die IGPU deaktiviert und eine andere GPU einbaut ob das System wärmer oder Kälter wird sollte sich nochmal mit Thermodynamik beschäftigen .
Wie Wärmeübertragung ... veränderte Kontaktflächen ... grössere Luftmengen ... deltaTemperaturen u.s.w.

Aber mal ehrlich gesagt wenn die IGPU 15 Watt Leistung frisst wo soll es da eine passende externe Geben die weniger Leistung verbraucht ? Unter 40 Watt gibt es da sehr wenige .
Selbst wenn muss man Bedenken dort steckt eine komplette Platine dahinter mit eigenen Spannungswandleren ( die arbeiten auch nicht als Perpetuum Mobile ) und eigenen Speicher ( der muss auch Strom benutzen und vergisst gerne Daten was heist er macht Wärme )

Also Entschuldigung falls ich mich wiederhole ...

Wo Arbeit geschieht entsteht Wärme bleibt daher . Falls es jetzt wichtig ist ob das System 34 °C unter Last erzeugt oder 33 °C ( wenn man einen guten Kühler verbaut geht das ) ist das doch dann egal wo die Grafik berechnet wird .
 
Zuletzt bearbeitet:
xxMuahdibxx schrieb:
Er fragt ob sie durch Nutzung Wärmer wird ... Da bisher kein Perpetuum Mobile erfunden wurde heist es ... ich nutze Energie sie wird verbraucht es MUSS Wärme entstehen .

Energie kann nicht verbraucht werden. Sie wird nur umgewandelt. Wärme ist nämlich auch Energie.
 
danke für das sehr Konstruktive Loool sowas kann man sich einfach denken wie es viele tun ...

Anderweitig Ja so stimmts .

Wärme ist auch eine Energieform . Wenn man sowas schreibt sollte man schon bei Gleichen Maß bleiben sonst verwirrts ja noch mehr.
Das man Strom = Energie setzt und es nicht hinschreibt .
 
Hallo Pyramid,

Die Intel HD4000 iGPU ist mit bis zu 15W TDP spezifiziert. Es gibt zwei Szenarien:

- Ist noch TDP-Spielraum vorhanden, obwohl die CPU bereits ihren Teil eingefordert hat, kann die Grafikeinheit voll zulegen und es wird entsprechend wärmer. Gewöhnlich anzutreffen bei: Desktop-Prozessoren, ausschließlich GPU-lastige Anwendungen

- Ist kein Spielraum mehr vorhanden, weil die CPU bereits das Limit ausreizt, wird die CPU gedrosselt um für die iGPU (im ebenfalls gedrosseltem Zustand) Kapazitäten freizumachen. Dadurch wird es nicht wärmer, nur langsamer. Gewöhnlich anzutreffen bei: Mobilprozessoren (insb. ULV/Ultrabooks), Spiele, komplexe Anwendungen mit GPU-Beschleunigung

Durch Power Gating ist eine nicht verwendete iGPU quasi Energieneutral und erzeugt keinerlei spürbaren Mehrverbrauch oder Abwärme - beispielsweise bei Verwendung einer dedizierten Grafikkarte. Der CPU steht damit der volle TDP-Spielraum jederzeit zur Verfügung.

Die Abwärme der dedizierten Grafikkarte muss natürlich auch abgeführt werden. Ist die dedizierte Grafikkarte aber von vergleichbarer Leistung wie die HD 4000 iGPU, ist diese Abwärme vernachlässigbar und wird keinerlei messbaren Effekt auf die CPU-Temperatur haben. Bei stärkeren Grafikkarten kann mit einer gut abgestimmten Gehäuselüftung verhindert werden, dass die CPU unter der Abwärme der Grafikkarte leidet.
 
Zurück
Oben