Wieso werden Grakas in Furmark so viel heißer als in Spielen?

Kolibrie

Lt. Junior Grade
Registriert
Dez. 2010
Beiträge
499
Abend zusammen!
Ganz simple Frage, steht eigentlich schon oben. Wieso werden Grafikkarten im Furmark 'Burn in' Modus so viel heißer als in Spielen?

Worauf ich hinaus will: Die Lüfter meiner Asus GTX 580 gingen mir echt auf den Sender, selbst bei 10% haben sie einen nervenden Ton erzeugt. Daher hab ich vor ein paar Tagen die Lüfter und Ummantelung abmontiert und 2 120er Lüfter draufgeschnallt. Ist jetzt super Leise, man hört wirklich nichts mehr. Idle Temps passen, wie vorher auch zwischen 35 und 39 Grad. Spiele auch kein Problem, Saints Row the Third, Crysis 2, Battlefield 3 ect. oder auch Heavens Benchmark nur knapp über 70 Grad. Doch wehe ich schalte Furmark ein, nach knapp 10 min krazen die Temps schon fast an der 100 Grad Grenze, pendeln sich dort allerdings auch ein, also zwischen 95 und 100 Grad. Ob nun in Spielen oder bei Furmark, die GPU ist immer zu 99% ausgelastet, wieso wird sie bei Furmark aber 25 - 30 Grad heißer?

Gruß
 
Furmark ist dafür gebaut möglichst hohe Last auf der GPU zu erzeugen. Eine normale Anwendung wie z.B. Spiele sind eben nicht so fordernd.

Anzeigen für Temperatur, Auslastung etc. sind natürlich sehr ... kreativ und sollte man immer mit Vorsicht genießen. Wie du siehst bedeutet 99% eben nicht "99%", da man, wie es Furmark macht, noch deutlich mehr Last durch spezielle Rechenoperationen auf der GPU erzeugen kann.
 
Achtung: Autovergleich.
Ein Auto im normalen Straßenverkehr hat eine normale Temperatur.
Fährt man es ständig nur im roten Bereich, von Berlin nach München nur im 2.Gang und Vollgas, wird es heiß heiß heiß.

Dasselbe macht Furmark, es fährt Deine Grafikkarte ausschließlich und permanent im roten Bereich, während in Spielen oder sonst die Karte auch mal Ruhephasen bekommt.
 
Außerdem hebelt Furmark die maximale Leistungsaufnahme der Karten aus und ÜBERLASTET sie so höher als der Treiber dies normalerweise zulassen würde.
 
Ah, so ist das also, das leuchtet natürlich ein. Danke euch! :) Damit hätte sich schon alles erledigt.
 
Das ist so nicht richtig Marius. Es ist nur so das Grafikkartenhersteller ihre Treiber mittlerweile für Furmark anpassen, sodass dort keine "Überlastung" vorkommen sollte. Schlussendlich sieht man nur, dass die GPU miserabel gekühlt (oder designed) werden. Solch eine Überhitzung passiert bei CPUs nicht - egal welche Testsoftware da läuft.
 
andy_0 schrieb:
Das ist so nicht richtig Marius. Es ist nur so das Grafikkartenhersteller ihre Treiber mittlerweile für Furmark anpassen, sodass dort keine "Überlastung" vorkommen sollte. Schlussendlich sieht man nur, dass die GPU miserabel gekühlt (oder designed) werden. Solch eine Überhitzung passiert bei CPUs nicht - egal welche Testsoftware da läuft.

*nicht mehr dank autoabschaltung
 
@andy, kann man sehen wie man will.
Die TDP ist treiberseitig begrenzt und Furmark hebelt(e?) das aus.
Der momentane Stand ist mir aber nicht bekannt.

Auch CPUs kann man so deutlich heisser machen als normal möglich wäre, indem man alle Bereiche auslastet.
z.B SuperPI + Handbrake.
Aber eine CPU(sehr viel ja nur Cache-Speicher) ist halt nur ein ziemlich armseliger Chip, gegenüber z.B der 7,1 Milliarden Rechen-Aktiver Transitoren einer Titan-GPU.
 
Zuletzt bearbeitet:
Die Auslastung gibt nur an, zu welchem Prozentsatz der Zeit deine GPU etwas zu tun hat. Deine GPU ist jedoch eine Agglomeration aus sehr viel Spezialhardware, wie zB.:
-Rasterisierer
-ROPs
-Cuda-Cores
-Texture-Mapping-Units
-Special-Function-Units
-Texturcache L2-Cache L1-Cache Constant-Cache
-DRAM
uvm.


Generell gilt, dass wenn ein Hardwarebestandteil der GPU dabei ist einen Befehl auszuführen, dann besitzt er eine höhere Verlustleistung, als wenn er untätig ist. Somit ist die Verlustleistung einer der GPU am höchsten, wenn all ihre Teilbestandteile gut ausgelastet sind.
Die verschiedenen Zeichenbefehle in Spielen lasten die GPU jedoch sehr ungleichmässig aus. Zb benötigt man für das Berechnen einer Shadowmap fast ausschliesslich die Rasterisierer. Der Rest der GPU ist dabei untätig und verbraucht nicht die maximale Verlustleistung. Bei zB. einfach texturierten Objekten werden die Texture-Mapping-Units kaum benötigt. Diese sind dann untätig und verbrauchen ebenfalls weniger Energie.

Da die GPU-Auslastung nur allgemein angibt, ob deine GPU etwas zu tun hat, und nicht ob bzw. wie weit alle Bestandteile der GPU etwas zu tun haben kann es vorkommen, dass trotz hoher Auslastung der GPU die Auslastungen aller Bestandteile sehr gering sind.

Furmark ist jedoch so designt, dass es die verschiedenen Bestandteile so auslastet, dass die Verlustleistung, im Vergleich zu normalen Spielen, sehr hoch ist.
 
Zuletzt bearbeitet:
@ Stype
Autoabschaltung ist auch wirklich die neueste Erfindung in der Chipbranche ... im Jahr 2000 ;).

@ Marius
Die TDP ist nicht per Treiber begrenzt. Bestenfalls per Firmware, aber Aufnahme zuverlässig messen ist eh kaum möglich. Soweit ich weiß lastet Furmark den Chip nur stärker aus. Wie das möglich ist erklärt Nai.

Klar, man kann CPUs heiß bekommen, aber mit brauchbarer (damit meine ich nicht High End) Kühlung nicht über ihre Tmax.

Um den Autovergleich heran zu ziehen: Du fährst mit Furmark eben bei 5000U/Min anstatt 3000/Min. Die Kühlung reicht dafür aber nicht aus und der Chip geht womöglich kaputt. Bei Autos gibt es z.B. einen Drehzahlbegrenzer um Überhitzung zu verhindern. Im normalen Betrieb (d.h. bis zum Drehzahlbegrenzer) kannst du das Auto aber beliebig lange mit seiner zulässigen Drehzahl fahren, das geht bei einer GPU (-> Furmark) oder manchmal auch bei anspruchsvollen Spielen nicht.
 
Sehr ausführlich, vielen Dank! Da wird einem einiges doch schon viel klarer.

Das heißt also in Spielen werden solche Auslastungen wie in Furmark, zumindest in naher Zukunft, nie erreicht? Da ich außer Spiele und office eigentlich sonst nichts mache, muss ich mir also noch keinen Kopf um die Kühlung bzw. leistungsstärkere Lüfter machen. Solang ich nicht ständig am "furmarken" bin, sollte ja alles in Ordnung sein.
 
Die Belastung von Furmark ist halt eine andere, als bei Spielen. Beim Übertakten meiner 470 habe ich Furmark ohne Problem auf 770Mhz laufen lassen können, bei Metro2033 hatte ich jedoch Grafikfehler. Obwohl die Karte bei Furmark heißer war als bei Metro. Das sind also wirklich unterschiedliche Belastungen für die Karte. Daher kann man die Sachen nicht so recht vergleichen, genauso wie ein Benchmark Tool nicht so richtig aussagekräftig ist und eher als Richtwert betrachtet werden sollte.
 
Zurück
Oben