Leserartikel Reale Leistungsaufnahme aktueller Grafikkarten und Einfluss der Temperatur

cyrezz

Rear Admiral
Registriert
Jan. 2004
Beiträge
5.416
Hallo zusammen.

Ich bin gerade im www auf einen sehr interessanten Artikel gestoßen, der sich dem Thema "Leistungsaufnahme" bei aktuellen Grafikkarten widmet. Dieser Artikel bei HW4U.net untersucht die reale Leistungsaufnahme und zeigt, dass manche Karte auch über ihre TDP hinaus schießen im Verbrauch, besonders Dual-GPU Karten sind davon betroffen. Da ich auf diesen Artiel verweise, bin ich so frei gewesen dies dennoch als Review zu bezeichnen, da ich hoffe, dass dies dann mehr Leute lesen werden! Falls dies den Mods nicht gefällt, so würde ich es ändern.

Ich möchte an dieser Stelle nur ein paar Dinge anreißen und ansonst den Artikel für sich sprechen lassen.



Leistungsaufnahme:Einfluss der Temperatur

Die Leistungsaufnahme einer Grafikkarte wird von zahlreichen Faktoren beeinflusst. Einer dieser Einflussfaktoren ist die GPU-Temperatur. Mit steigender Temperatur erhöht sich auch die Stromaufnahme. Die Ursache hierfür dürfte in erster Linie auf die steigenden Leckströme bei hohen Temperaturen sowie dem negativen Temperaturkoeffizienten (niedrigerer Widerstand bei höheren Temepraturen) der Transistoren zurückzuführen sein. Beispielhaft, haben wir diesbezüglich das Verhalten der GeForce GTX 280 untersucht.

leistungsaufnahme_temp.png


Da machen 20°C Differenz mal eben 17W aus bei einer GTX280!



Das Wandler-Problem (Spanungswandler oder auch VRM genannt)

[...] Es ist an dieser Stelle nun mehr alles andere als verwunderlich, warum AMD derartige Vorkehrungen für den FurMark trifft. Die Karte ist der Belastung schlichtweg nicht gewachsen. Während sich die GPU-Temperatur in absolut undenklichen Gefilden bewegt, steigt die Temperatur der Wandler ins Unermessliche. Mittlerweile ist auch das Datenblatt zum Wandler von Vitec Electonics verfügbar, welches die maximal Betriebs-Temperatur mit 125°C angibt.
Mittels FurMark erreichten wir laut RivaTuner bereits binnen weniger Minuten eine Temperatur von 125°C, womit eindeutig bestätigt ist: Die Radeon HD 4870 hat ein Problem mit der Wandler-Temperatur, und zwar ein gewaltiges. Sicherlich ist der Furmark ein Worst-Case-Szenario, das in dieser Form in aktuellen Spielen auf diese Art nicht oder kaum anzutreffen ist. Aber es verdeutlicht, dass die Wandler der Karte schnell am Rande der Spezifikationen – und in speziellen Fällen eben auch darüber hinaus – arbeiten.

Ich kann an dieser Stelle nur aus eigener Erfahrung und vieler Hilfestellung die ich hier im Forum gegeben habe sagen, dass dieses Problem (das ist auch der Grund warum ich es rausgepickt habe) auch bei nVidias GTX260/280 Karten besteht. Man liest ja beinahe täglich über Freezes bei den OC Karten, sei es nun eine AMP oder Black Edition und wie sie alle heißen. Eines haben die Karten gemeinsam und das ist die Spannungswandlertemeratur, bzw. das Problem mit diesen.

Bei gesteigerter Spannung werden diese Spannungswandler sehr heiß. Ich beziehe mich jetzt mal nur auf die GTX260, da kenne ich mich mehr mit aus als mit der GTX280. Die Standardspannung jener GTX260 ist seitens nVidia mit 1.12V angegeben (GTX280 mit 1.18V), diese brauchen auch die OC Versionen um Taktraten jenseits der 700MHz Marke zu erreichen. Nun sieht man aber auch viele "kleinere" OC Modelle/non OC Modelle, die nur mit 1.09V oder gar mit 1.06V betrieben werden und folglich tritt hier weniger das VRM Problem auf, bzw. diese Karten lassen sich meist nicht so hoch takten. Das Layout der PCBs (sowohl bei GT200 als auch beim RV770) ist dahingehend subotimal, da die VRMs viel zu warm werden, denn meist sitzt der Lüfter beim Referenzkühler direkt darüber und dort ist ja der tote Winkel eines Lüfterns. Erst beim aufdrehen der Lüfter werden die VRM stärker mitgekühlt und da sieht man nicht nur hier im Forum, dass die Probleme (ab Werk) der OC Versionen sich in Luft auflösen, sobald die VRMs anständig gekühlt werden.



Der Artikel beschäftigt sich auch später mit dem Einfluss der Taktraten und der Spannung auf die Leistungsaufnahme. Es ist allemal für jeden Lesenswert und leider müssen wir Silent Fanatiker festellen, dass leise auch mehr Verbrauch bedeutet - ausgenommen Wasserkühlungen.

Ferner würde ich mich auch über eine rege Diskussion hier freuen, aber eine Warnung vor weg: Gebashe und geflame wird nicht toleriert und sofort den Moderatoren gemeldet!
 
Zuletzt bearbeitet:
Das erste Zitat ist doppelt gemoppelt, das solltest du korrigieren; wenn du schon dabei bist: tollerieren. ;-)

Ansonsten gibt es eine gute Lösung für die Absturzgeplagten: Standardkühler drauf lassen. Ich bin auch zu dem Teil zurückgekommen, weil auch die Regelungsmöglichkeiten recht gut sind. Ich habe mir im Rivatuner ein angepasstes Lüfterprofil erstellt, welches dem Standardprofil in Sachen Kühlleistung weit überlegen und trotzdem nicht allzu aufdringlich ist.
So gesehen müssen die Käufer solcher Karten nun die Schlamperei der Boardhersteller ausbaden, entweder mit Abstürzen oder mit hoher Lautstärke.
 
Ist korrigiert. Sitze gerade am Laptop meiner Freundin und da bin ich wohl auf das Touchpad gekommen und deshalb in der Zeile verrutscht und habe das Zitat somit doppelt gemacht. Ist geändert worden, danke für den Hinweis.

Nun, klar die Lüftersteuerung anzupassen ist ja die einzige sinnvolle Möglichkeit die man hat, wenn der Referenzkühler weiterhin verbaut bleiben soll. Nicht jeder wird deswegen das BIOS modifizieren und das sollte man eh auch nur dann machen, wenn man sich darüber im Klaren ist, was mach da eigentlich macht.
 
Sehr interessant!

Besonders krass fande ich ja:
Den ein oder anderen mag es vielleicht wundern, dass zwei Netzteile in der Testumgebung auftauchen. Der Grund hierfür ist recht schnell genannt: Das be Quiet! Dark Power Pro 600 Watt konnte den Stromanforderungen der Dual-GPU-Karten Radeon HD 4870 X2 und GeForce GTX 295 unter Furmark nicht standhalten. Schon unmittelbar nach dem Start von Furmark ging das System in die Notabschaltung!

Vll. nur Pech, aber eig. sollte das nicht passieren.

Auch der Hammer, wie die PCIe-Spezifikationen überschritten werden... uiuiui
107 W statt 75 (gtx 295) oder die 4870 X2 mit 200 W statt 150 auf dem 8-pin. Krass.

Dass es einen Einfluß der Temp auf den Verbrauch gibt, gut, verstehe ich, aber dass es so viel ist, hätte ich nicht gedacht.
Da bin ich ja doch ganz froh, dass ich für die X2 jetzt ne Alternative Kühllösung habe, auch wenn sie die Wärme ins Gehäuse abgibt :( - Palit Revolution 700) Bin bisher (in der Praxis) mit dem Gesamtsys noch nicht über 415 gekommen (resp. im Test 373 Graka allein!), aber das ist auch schon ganz schön krass (Tagan Piperock 600, ex38, e8400 nonOC) - auch bin ich froh dass mein NT das mitmacht..;)
Klar, ist halt furmark - ist sicher nicht realistisch für die Praxis, aber zeigt doch deutlich, was möglich ist - und das ist irgendwie schon beängstigend...

ps: mit 790/100 war der Max verbrauch. Mt meinem bios mod bleibe ich selbst bei 800/980 noch unter 65°, und das noch recht ruhig, wenn die Kurve genauso aussieht wie bei der 280 (was ich übrigens schad finde, dass sie sone Kurve Temp/Verbrauch nichtmal für mehere Karten gemacht haben, oder hab ich im Anhag was übersehen?), dann würde das ja auch so einige Watt ausmachen!
 
Zuletzt bearbeitet:
Ja mich haben da auch so einige Werte erschrocken. Besonders die Verbrauche der jeweiligen Karten und die TDP die der Hersteller angibt. Das es nur so wenige Diagramme gibt finde ich auch sehr schade, das hätten sie echt mit mehreren Karten machen können.

Insgesamt bekräftigt mich der Test aber, dass ich meine Wakü weiterhin so ausrichte, dass es weniger warme Teile im System gibt. Da bin ich froh, dass meine GPU maximal 40°C unter Last warm wird. Demnächst werde ich auch mal nachmessen was mein gesamtes System so verbraucht.
 
Yupp,
mach mal - finde es auch immer interessant, was andere so verbauchen - also ich bin im Moment bei 130-140 Watt, also da kann ich schon mit zu frieden sein. Aber habe halt auch relativ extreme Einstellungen, für nen biosmod...Dazu noch der TFT mit 38 Watt - ok.

Aber beim zocken Hossa... 350-400 Watt, fast immer...

Auf jeden fall netter Artikel, auch wenn furmark natürlich so ne Sache ist, dass wird denke ich nichtmal Ansatzweise in der Anwendungsrealität passieren, dass sozusagen alle "Teile" der Graka auf 100% laufen.

Ja die TDP war auch krass, aber dass mit den Spannungswandlern ist irgendie auch erschreckend.
Hab dann gleich mal bei mir nach ner Stunde C O Juarez (wo übrigens mein Rechner dauerhaft mehr verbraucht als bei crysis - da sind nur die spitzen höher..) aller bei 73° und weniger. Weiß natürlich nicht, was von der alternativen Kühllösung kommt bzw. wie es bei ner Referenz - X2 ist...
 
Sehr interessant.
Das ist mal schön zu wissen, dass die Temp auch ne Rolle spielt.

Aber das bei den Dual Karten die Specs übertroffen werden, schockt mich doch ein wenig, hätte ich nicht gedacht!
 
Zuletzt bearbeitet:
Erwähnenswert ist beim Thema "reale Leistungsaufnahme aktueller Grafikkarten" ebenfalls
xbitlabs.com, mit seinen vielen Artikeln seit Jahren
technic3d.com, mit seinen Artikeln seit ~3 Monaten
 
So, ich habe nun mal einen kleinen Selbsttest vollzogen.

Ich bin jetzt dem Stromverbrauch mal etwas nachgegangen und habe mir ein Energieverbrauchs-Messgerät zugelegt um zu checken was wie viel verbraucht. Es handelt sich um ein handelsübliches Messgerät (misst ab 1,5W), legt also nicht jeden Wert auf die Goldwaage, es ist kein High-Tech Messgerät, also können geringe Abweichungen entstehen und die Angaben beziehen sich auf mein System, so wie es ist!

Mir ging es darum, was man noch so alles im Idle sparen kann und welche Lastspannung für meine Karte die beste wäre, wo der Verbrauch in meinen Augen noch im Rahmen ist, auch wenn ich ggf. dafür das OC etwas runter schrauben würde.

Ich habe mich für die beiden Titel Call of Duty 4 Modern Warfare und Race Driver Grid entschieden, da ich diese im Moment hauptsächlich zocke. Furmark habe ich nur mit reingenommen, um den maximalen Verbrauch zu ermitteln.



Gemessen habe ich das gesamte System ohne Monitor, also inkl. Wasserkühlung!





  • 0.7V sind nach ein paar Minuten mit einem Bildfehler abgestürzt.
  • 0.6V sofortiger Freeze, keine Messung möglich





Bei 1.15V Lastspannung kann ich leider auch kein bisschen weiter Übertakten, aber auch so fällt es wegen des immensen Anstiegs im Verbrauch für mich raus und ich werde höheren Werte erst gar nicht testen. Daher bleibe ich bei 1.13V Lastspannung (1.12V geflasht). Im Idle kann man gegenüber den ab Werk 1.06V schon noch ein wenig mehr sparen und ich belasse es bei 0.8V nach der RivaTuner Anleitung von PCGH.

Im Schnitt bleibe ich also beim Zocken unter 300W für das gesamte System (mit CPU & GPU OC; ohne Monitor) und das ist für mich im Rahmen.
 
Zurück
Oben