nVidia GeForce GTX Titan zum Energiesparen runtertakten

Magogan

Lt. Junior Grade
Dabei seit
Aug. 2013
Beiträge
502
Hi Leute,

ich habe ein Problem: Meine Grafikkarte nVidia GeForce GTX Titan sollte im Idle eigentlich bei 6-7% TDP Stromverbrauch liegen, wenn sie sich normal runtertaktet, weil sie nicht belastet wird. Allerdings taktet sie sich von selber hoch, wenn ich TMPGEnc VMW5 (ein Videobearbeitungsprogramm) starte, selbst wenn die Grafikkarte weiterhin zu 0% ausgelastet ist. Die Grafikkarte läuft also während der Video-Bearbeitung und der Enkodierung von Videos auf 836 MHz und mit 1500 MHz Speichertakt, obwohl sie wirklich gar nicht belastet wird (das Encoding des Videos macht ausschließlich die CPU). Das macht pro Jahr ca. 20-25 Euro mehr Stromkosten durch den höheren Verbrauch, was ich gerne verhindern würde. Kann ich die Grafikkarte mit irgendeinem Programm dazu bringen, sich im Idle nicht hochzutakten? Wäre es auch möglich, sie dann trotzdem auf 836 MHz (Standardtakt) zu takten, falls ich mehrere Monitore aktiviere (angeblich flackert sonst das Bild)?

Vielen Dank schon mal für eure Hilfe.

Grüße
Magogan
 

xxMuahdibxx

Fleet Admiral
Dabei seit
Juli 2011
Beiträge
19.128
Also so viel Geld für eine Grafikkarte ausgeben und dann 20 € beim Strom sparen wollen ?

Anderweitig probier doch die Hardwarebeschleunigung beim Encoden mit zu nutzen dann macht es ja auch Sinn weil es in 1/5 der Zeit fertig ist .
 

fuchsify

Lt. Junior Grade
Dabei seit
März 2013
Beiträge
436

CH4F

Lt. Junior Grade
Dabei seit
Nov. 2012
Beiträge
465
Man sollte beim Kauf einfach mehr nachdenken und dan auch nicht mehr beim Strom sparen müssen dafür :lol:
 

Magogan

Lt. Junior Grade
Ersteller dieses Themas
Dabei seit
Aug. 2013
Beiträge
502
Man sollte beim Kauf einfach mehr nachdenken und dan auch nicht mehr beim Strom sparen müssen dafür :lol:
Das ist vollkommen irrelevant, da dies (höchstwahrscheinlich) mit jeder aktuellen Grafikkarte von nVidia auftreten würde.

Die ermittelten Stromkosten basieren auf den Werten, die mir GPU-Z anzeigt: Die Grafikkarte läuft auf ca. 24% TDP (ca. 60 Watt), obwohl bei GPU Load 0% angezeigt werden. Und das muss ja nicht sein, wenn sie gar nichts tut.

Die Grafikkarte möchte ich nicht zum Enkodieren nutzen, das soll ineffizient sein, was die Dateigröße anbelangt. Die Videos sind so schon teilweise 4-5 GB groß bei 20 Minuten Länge, größer müssen sie nun wirklich nicht werden :D
 

DF_zwo

Lt. Junior Grade
Dabei seit
Jan. 2007
Beiträge
405
Die TDP hat nichts mit dem Verbrauch zu tun bzw. um es anders zu sagen, 60 Watt TDP bedeuten nicht 60 Watt Verbrauch. Ansonsten kann ich mich den anderen hier nur anschließen... eine 800 bis 900 Euro Grafikkarte haben und dann 25 Euro Stromkosten im Jahr zu sparen, passt nicht zusammen.
 

-Nobody-

Ensign
Dabei seit
Jan. 2011
Beiträge
156
Mach dir mal keinen Kopf, deine Rechnung stimmt nicht.
Wenn ich von 20 Watt ausgehe bei ca. 10% GPU Auslastung muss deine Titan 365 Tage / 11h pro Tag bei 10% laufen um Kosten von 20 Euro zu produzieren.
Alles sehr Gut aufgerundet.
 

cmd2012

Lt. Junior Grade
Dabei seit
Apr. 2012
Beiträge
281
Öhm.. ich lasse mich gern berichtigen, falls ich falsch liegen sollte, aber:

Wenn eine Graka nur 50% getaktet ist heißt das doch nicht zwangsläufig, dass sie auch 50% TDP "verbraucht"

TDP ist die maximale zu kühlende Wärmeabgabe, sofern ich nicht irre - mit tatsächlichem Verbrauch hat das doch 0 zu tun!?


Irgendjemand sagte mal, der Veyron bräuchte für 300kmh nur 250PS, für 400kmh aber 1000PS
Hat nun nichts mit PC zu tun, aber als Beispiel sollte es reichen; die Karte verbrät nicht linear Strom zur Taktung.

Mein Tipp, da du scheinbar interessiert bist Kosten zu sparen:
10€ Strommessgerät und PC im Idle/Vollast messen - dann kannst du ein wenig genauer Entscheidungen treffen.
 

Red Sun

Lieutenant
Dabei seit
Dez. 2010
Beiträge
684
TDP != Reale Leistungsaufnahme aus dem 230V AC-Netz

Bitte beachten. Mal davon abgesehen wird die TDP gerne mit der allgemeinen Leistungsaufnahme verwechselt.

Wenn du wirklich wissen willst wie viel Strom dein Rechner verbraucht, schalte ein Leistungsmessgerät zwischen Steckdose und Computerkabel.
 
Zuletzt bearbeitet:

Madman1209

Fleet Admiral
Dabei seit
Nov. 2010
Beiträge
24.979
Hi,

genau darauf wollte ich raus! Bevor der Verbrauch nicht gemessen ist hat er absolut Null Aussagekraft! Messgerät im Baumarkt leihen und messen. Alles andere ist nicht seriös. Und dass TDP nicht Verbrauch ist sollte mittlerweile klar sein.

VG,
Mad
 

-Nobody-

Ensign
Dabei seit
Jan. 2011
Beiträge
156
Mein Porsche verbraucht im Standgas zu viel Sprit…. was kann ich machen ^^
 

Magogan

Lt. Junior Grade
Ersteller dieses Themas
Dabei seit
Aug. 2013
Beiträge
502
Mach dir mal keinen Kopf, deine Rechnung stimmt nicht.
Wenn ich von 20 Watt ausgehe bei ca. 10% GPU Auslastung muss deine Titan 365 Tage / 11h pro Tag bei 10% laufen um Kosten von 20 Euro zu produzieren.
Alles sehr Gut aufgerundet.
Es sind aber 60 Watt bei 0% Auslastung, sobald ich TMPGEnc starte. Also irgendetwas zwischen 40 und 50 Watt mehr als die Grafikkarte im Idle verbrauchen sollte. Und bei der Menge an Videos, die ich enkodiere, kommen die 20-25 Euro im Jahr schon hin.

Klar, es ist im Vergleich zum Preis der Grafikkarte wenig Geld, aber es ist eben ein unnötiger Mehrverbrauch, der absolut gar keinen Nutzen hat. Dass die Grafikkarte bei Spielen unter Umständen mehr verbraucht als eine billige, ist ja kein Problem, da ich so auch mehr FPS habe und auf höheren Grafikeinstellungen spielen kann als mit einer Grafikkarte für 100 Euro. Aber der Mehrverbrauch beim Enkodieren bringt mir überhaupt gar nichts, da die Grafikkarte absolut nichts tut.

MSI Afterburner bringt übrigens gar nichts, damit kann ich die Frequenz nicht tief genug runtersetzen, um eine wirkliche Einsparung zu erreichen.

Ein Leistungsmessgerät habe ich bereits, auch dieses bestätigt die Anzeige von GPU-Z: Es sind wirklich ca. 40 Watt mehr Verbrauch, vielleicht auch nur 30, aber der Verbrauch steigt auf jeden Fall erheblich an. Tatsächlich habe ich das nur bemerkt, weil ich auf das Messgerät geguckt habe. Mal ganz abgesehen davon wird die Grafikkarte auch deutlich heißer (57°C) und der Lüfter dreht sich schneller, folglich wird also definitiv mehr Strom verbraucht.

Und ich beschwere mich gar nicht darüber, dass die Grafikkarte allgemein zu viel verbraucht - das war mir nämlich auch schon bewusst beim Kauf. Obwohl... Die verbraucht im Idle vielleicht sogar weniger als meine alte GTX 560 Ti, sofern sich die Grafikkarte auch runtertaktet, was sie bei 0% Auslastung eigentlich auch verdammt nochmal tun sollte.
 
Zuletzt bearbeitet:

cmd2012

Lt. Junior Grade
Dabei seit
Apr. 2012
Beiträge
281
Ma fix ne Nebenfrage..

meine 250GTS lässt ja keine Änderung an den Spannungseinstellungen zu...


Gibt es ne grobe Aussage um wie viel Volt man aktuelle Karten untervolten kann um
unter idle/Last stabil zu sein?
 

JackTheRippchen

Lt. Commander
Dabei seit
März 2012
Beiträge
1.276
Die Grafikkarte läuft also während der Video-Bearbeitung und der Enkodierung von Videos auf 836 MHz und mit 1500 MHz Speichertakt, obwohl sie wirklich gar nicht belastet wird (das Encoding des Videos macht ausschließlich die CPU).
Nimm in den Einstellungen mal den Haken bei "enable CUDA" (oder so ähnlich) raus und schau mal, ob sich die Graka immer noch hochtaktet.
 

Madman1209

Fleet Admiral
Dabei seit
Nov. 2010
Beiträge
24.979
Hi,

denke auch irgendwo sollte man in der Software festlegen können, ob die GPU mit takten soll oder nicht. Eventuell kann man da auch was in den nVidia Treibern einstellen? Im schlimmsten Fall: andere Software nutzen.

VG,
Mad
 

Magogan

Lt. Junior Grade
Ersteller dieses Themas
Dabei seit
Aug. 2013
Beiträge
502
Ich habe bereits CUDA in TMPGEnc deaktiviert, aber die Grafikkarte taktet sich trotzdem hoch.
 

Magogan

Lt. Junior Grade
Ersteller dieses Themas
Dabei seit
Aug. 2013
Beiträge
502
Nein, im Treiber kann ich nur die Energiespareinstellungen auf "Adaptiv" stellen, was ich bereits getan habe.
 
Top