Unterschiedliche Temp. bei verschiedene Spielen ?

chinmera

Lt. Junior Grade
Registriert
Aug. 2008
Beiträge
442
Hallo Leute.

Gestern habe ich mit meinen Kumpel zwecks Temperaturen herumdiskutiert.

Kurzfassung:

Bei Wolfenstein old Blood habe ich max. Temp:
CPU-->72 Grad
GPU-->76 Grad

Bei Prey habe ich um die 10 Grad mehr.

Meine Meinung dazu ist das die neueren Spielen ( z.B. Prey ) mehr Rechenleistung benötigen und dadurch auch die
Temperatur höher ist.

Wolfenstein old Blood ist ja älter und benötigt weniger Rechenleistung.

Das wäre normal.

Mein Kumpel ist fest der Meinung das es nicht normal ist.
Egal ob altes oder neues Spiel, die Temp. müssen immer gleich sein.

Was ist Eure Meinung dazu ?

Danke
 
Jedes Spiel lastet CPU und GPU unterschiedlich aus und deshalb sind auch die Temperaturen unterschiedlich.
 
Pauschal von "neuer = wärmer" kann man glaube ich nicht sprechen - ich würde eher sagen "Mehr Auslastung der Komponenten = wärmer" (was bei neueren Spielen durchaus vorkommen kann)
 
Meinung? Lässt sich doch mit einfachen Mitteln beweisen. Und das hast du auch quasi schon. Ich würde einfach mal einen Blick auf die Auslastung von GPU und CPU werfen. Vor allem, wenn man mit Vsync spielt bzw. die FPS begrenzt, muss die GPU ja nicht in jedem Spiel die volle Power ausfahren (und die CPU oft auch nicht), taktet also auch nicht unbedingt ganz hoch und konsumiert weniger Strom... ergo: weniger Abwärme. Weiß auch gar nicht, wie dein Kumpel das anzweifeln kann ;)

Übirgens gibt's bei dem Thema keine Meinung... sondern nur Tatsachen und Tatsachenbehauptungen ;)

Ich fände es sehr seltsam, wenn ich auf meinem PC Age of Empires 2 laufen lassen würde und alle Lüfter auf Anschlag liefen, weil der PC sonst überhitzt... :rolleyes:
 
Zuletzt bearbeitet:
Das ist richtig. Bei der CPU werden Kerne unterschiedlich gebraucht, getaktet und ausgelastet, bei GPU das gleiche, in Auslastung und VRAM Verbrauch.

Wird ein Motor auch immer gleich warm? Nein, je nach Auslastung.
 
Afterburner installieren -> OSD aktivieren -> sehen das die Auslastung von Grafikkarte und Prozessor unterschiedlich ist.
Das wäre dann die Dumm Dumm Erklärung.

Und dann können wir das Niveau auch gerne erhöhen. Berechne per Prime mal verschiedene Sizes. Prozessor immer bei 100% und trotzdem deutliche Unterschiede bei Temperatur, Leistungsaufnahme etc.

Einfach gesagt, die Temperatur einer CPU kann schwanken, je nachdem welche Berechnungen diese gerade ausführen muss. AVX Befehlssätze sind z.B. sehr fordernd. Eine einfach schwarz/weiß Betrachtung ist also nicht unbedingt so einfach. In den meisten Spielen hängt es allerdings direkt mit der Auslastung zusammen. Ein BF1 z.B. kann viele gerne sehr gleichmäßig auslasten. Ältere Spiele laufen mitunter nur auf einem Core.
 
Danke.

Habe im gerade die Antworten gezeigt.

Schön langsam kapiert er es.
Er hat sich da in irgendwas verstrickt und ist felsenfest der Meinung.

Danke Leute.

Aber ihr kennt das ja, wenn man jemanden überzeugen muss das er mit seiner Meinung nicht ganz richtig liegt. :rolleyes:
 
Du hast bei Prey CPU= 82 Grad und GPU=86 Grad?.. da wird mir Angst und Bange.. alles über 60 ist mir schon zu viel.. :D
 
Zuletzt bearbeitet:
chinmera schrieb:
Aber ihr kennt das ja, wenn man jemanden überzeugen muss das er mit seiner Meinung nicht ganz richtig liegt. :rolleyes:

hab ich sehr oft und man kennt seine pappenheimer und ich persönlich lass mich da gern am hintern lecken. bevor ich mir den strss mach und mich blöd anquatschen lass, lass ichs lieber sein und lass demjenigen bei seinem falschen wissen.
 
Es kommt aufs Postprocessing seitens demjeweiligen Game an und dieses ist bedingt von der Detaillierung derer Konfiguration.
Im Kern sind davon die Action-Shooter betroffen, insbesondere schlauchen deren Multiplayer, umso mehr Teilnehmer (Bots je Thin-Client/Host) und umso mehr Action/Effekte auf engem Raum desto mehr ist der Hauptprozessor gerfragt.

Beispielsweise im Multiplayer von Battlefield 3 auf 1920 x 1080 und High-Details ohne AA/AF (einschließlich ohne AA-Postprocessing) und mit VSync (konstant 60 Hz/60 Fps) mache ich die Erkenntnis, dass umso mehr Leistung ich seitens dem Intel Core i7-6700K freigebe, ergo ungedrosselt auf 42x 100 MHz @ 4C/8T @ 1.296 V, desto mehr wird die NVIDIA GeForce GTX 970 entlastet, folglich heizt der Intel Core i7-6700K gen 65 °C auf und die NVIDIA GeForce GTX 970 dümpelt gen 45 °C herum.
Den Intel Core i7-6700K mittels Intel Speed Shift Technology (seit Microsoft Windows 10 - Redstone 2) gen 30x 100 MHz @ 4C/8T @ 1.085 (Der zu überwiegend beanspruchte Core #1 erzielt bis zu 1.090 V.) rennt die NVIDIA GeForce GTX 970 über das Ziel hinaus, gen 60 °C, unterdessen der Intel Core i7-6700K gen 50 °C herumdümpelt.
Das Optimum sind die 35x 100 MHz @ 4C/8T @ 1.192 V seitens dem Intel Core i7-6700K, diese resultieren in 55 °C, wegen den Dreck und das Thermal Interface Material (unterm und überm Heatspreader) sind es derweil 60 °C, die NVIDIA GeForce GTX 970 reiht sich so gen 55 °C ein, im Normalfall ein Durchschnittswert von 55 °C der beiden Komponenten, doch je nach Map, Server (Thin-Client), Spielmodus und Anzahl der Teilnehmer variieren die Resultate.
 
Zuletzt bearbeitet:
Zurück
Oben