nVidia GeForce GTX Titan zum Energiesparen runtertakten

Magogan

Lieutenant
Registriert
Aug. 2013
Beiträge
606
Hi Leute,

ich habe ein Problem: Meine Grafikkarte nVidia GeForce GTX Titan sollte im Idle eigentlich bei 6-7% TDP Stromverbrauch liegen, wenn sie sich normal runtertaktet, weil sie nicht belastet wird. Allerdings taktet sie sich von selber hoch, wenn ich TMPGEnc VMW5 (ein Videobearbeitungsprogramm) starte, selbst wenn die Grafikkarte weiterhin zu 0% ausgelastet ist. Die Grafikkarte läuft also während der Video-Bearbeitung und der Enkodierung von Videos auf 836 MHz und mit 1500 MHz Speichertakt, obwohl sie wirklich gar nicht belastet wird (das Encoding des Videos macht ausschließlich die CPU). Das macht pro Jahr ca. 20-25 Euro mehr Stromkosten durch den höheren Verbrauch, was ich gerne verhindern würde. Kann ich die Grafikkarte mit irgendeinem Programm dazu bringen, sich im Idle nicht hochzutakten? Wäre es auch möglich, sie dann trotzdem auf 836 MHz (Standardtakt) zu takten, falls ich mehrere Monitore aktiviere (angeblich flackert sonst das Bild)?

Vielen Dank schon mal für eure Hilfe.

Grüße
Magogan
 
Also so viel Geld für eine Grafikkarte ausgeben und dann 20 € beim Strom sparen wollen ?

Anderweitig probier doch die Hardwarebeschleunigung beim Encoden mit zu nutzen dann macht es ja auch Sinn weil es in 1/5 der Zeit fertig ist .
 
Also so viel Geld für eine Grafikkarte ausgeben und dann 20 € beim Strom sparen wollen ?

Genau das dachte ich mir auch gerade. :freak:

Könntest versuchen sie mit MSI Afterburner manuell runter zu takten.

Mfg
 
Man sollte beim Kauf einfach mehr nachdenken und dan auch nicht mehr beim Strom sparen müssen dafür :lol:
 
CH4F schrieb:
Man sollte beim Kauf einfach mehr nachdenken und dan auch nicht mehr beim Strom sparen müssen dafür :lol:
Das ist vollkommen irrelevant, da dies (höchstwahrscheinlich) mit jeder aktuellen Grafikkarte von nVidia auftreten würde.

Die ermittelten Stromkosten basieren auf den Werten, die mir GPU-Z anzeigt: Die Grafikkarte läuft auf ca. 24% TDP (ca. 60 Watt), obwohl bei GPU Load 0% angezeigt werden. Und das muss ja nicht sein, wenn sie gar nichts tut.

Die Grafikkarte möchte ich nicht zum Enkodieren nutzen, das soll ineffizient sein, was die Dateigröße anbelangt. Die Videos sind so schon teilweise 4-5 GB groß bei 20 Minuten Länge, größer müssen sie nun wirklich nicht werden :D
 
Die TDP hat nichts mit dem Verbrauch zu tun bzw. um es anders zu sagen, 60 Watt TDP bedeuten nicht 60 Watt Verbrauch. Ansonsten kann ich mich den anderen hier nur anschließen... eine 800 bis 900 Euro Grafikkarte haben und dann 25 Euro Stromkosten im Jahr zu sparen, passt nicht zusammen.
 
Mach dir mal keinen Kopf, deine Rechnung stimmt nicht.
Wenn ich von 20 Watt ausgehe bei ca. 10% GPU Auslastung muss deine Titan 365 Tage / 11h pro Tag bei 10% laufen um Kosten von 20 Euro zu produzieren.
Alles sehr Gut aufgerundet.
 
Öhm.. ich lasse mich gern berichtigen, falls ich falsch liegen sollte, aber:

Wenn eine Graka nur 50% getaktet ist heißt das doch nicht zwangsläufig, dass sie auch 50% TDP "verbraucht"

TDP ist die maximale zu kühlende Wärmeabgabe, sofern ich nicht irre - mit tatsächlichem Verbrauch hat das doch 0 zu tun!?


Irgendjemand sagte mal, der Veyron bräuchte für 300kmh nur 250PS, für 400kmh aber 1000PS
Hat nun nichts mit PC zu tun, aber als Beispiel sollte es reichen; die Karte verbrät nicht linear Strom zur Taktung.

Mein Tipp, da du scheinbar interessiert bist Kosten zu sparen:
10€ Strommessgerät und PC im Idle/Vollast messen - dann kannst du ein wenig genauer Entscheidungen treffen.
 
TDP != Reale Leistungsaufnahme aus dem 230V AC-Netz

Bitte beachten. Mal davon abgesehen wird die TDP gerne mit der allgemeinen Leistungsaufnahme verwechselt.

Wenn du wirklich wissen willst wie viel Strom dein Rechner verbraucht, schalte ein Leistungsmessgerät zwischen Steckdose und Computerkabel.
 
Zuletzt bearbeitet:
Hi,

genau darauf wollte ich raus! Bevor der Verbrauch nicht gemessen ist hat er absolut Null Aussagekraft! Messgerät im Baumarkt leihen und messen. Alles andere ist nicht seriös. Und dass TDP nicht Verbrauch ist sollte mittlerweile klar sein.

VG,
Mad
 
Mein Porsche verbraucht im Standgas zu viel Sprit…. was kann ich machen ^^
 
-Nobody- schrieb:
Mach dir mal keinen Kopf, deine Rechnung stimmt nicht.
Wenn ich von 20 Watt ausgehe bei ca. 10% GPU Auslastung muss deine Titan 365 Tage / 11h pro Tag bei 10% laufen um Kosten von 20 Euro zu produzieren.
Alles sehr Gut aufgerundet.
Es sind aber 60 Watt bei 0% Auslastung, sobald ich TMPGEnc starte. Also irgendetwas zwischen 40 und 50 Watt mehr als die Grafikkarte im Idle verbrauchen sollte. Und bei der Menge an Videos, die ich enkodiere, kommen die 20-25 Euro im Jahr schon hin.

Klar, es ist im Vergleich zum Preis der Grafikkarte wenig Geld, aber es ist eben ein unnötiger Mehrverbrauch, der absolut gar keinen Nutzen hat. Dass die Grafikkarte bei Spielen unter Umständen mehr verbraucht als eine billige, ist ja kein Problem, da ich so auch mehr FPS habe und auf höheren Grafikeinstellungen spielen kann als mit einer Grafikkarte für 100 Euro. Aber der Mehrverbrauch beim Enkodieren bringt mir überhaupt gar nichts, da die Grafikkarte absolut nichts tut.

MSI Afterburner bringt übrigens gar nichts, damit kann ich die Frequenz nicht tief genug runtersetzen, um eine wirkliche Einsparung zu erreichen.

Ein Leistungsmessgerät habe ich bereits, auch dieses bestätigt die Anzeige von GPU-Z: Es sind wirklich ca. 40 Watt mehr Verbrauch, vielleicht auch nur 30, aber der Verbrauch steigt auf jeden Fall erheblich an. Tatsächlich habe ich das nur bemerkt, weil ich auf das Messgerät geguckt habe. Mal ganz abgesehen davon wird die Grafikkarte auch deutlich heißer (57°C) und der Lüfter dreht sich schneller, folglich wird also definitiv mehr Strom verbraucht.

Und ich beschwere mich gar nicht darüber, dass die Grafikkarte allgemein zu viel verbraucht - das war mir nämlich auch schon bewusst beim Kauf. Obwohl... Die verbraucht im Idle vielleicht sogar weniger als meine alte GTX 560 Ti, sofern sich die Grafikkarte auch runtertaktet, was sie bei 0% Auslastung eigentlich auch verdammt nochmal tun sollte.
 
Zuletzt bearbeitet:
Ma fix ne Nebenfrage..

meine 250GTS lässt ja keine Änderung an den Spannungseinstellungen zu...


Gibt es ne grobe Aussage um wie viel Volt man aktuelle Karten untervolten kann um
unter idle/Last stabil zu sein?
 
Magogan schrieb:
Die Grafikkarte läuft also während der Video-Bearbeitung und der Enkodierung von Videos auf 836 MHz und mit 1500 MHz Speichertakt, obwohl sie wirklich gar nicht belastet wird (das Encoding des Videos macht ausschließlich die CPU).

Nimm in den Einstellungen mal den Haken bei "enable CUDA" (oder so ähnlich) raus und schau mal, ob sich die Graka immer noch hochtaktet.
 
Hi,

denke auch irgendwo sollte man in der Software festlegen können, ob die GPU mit takten soll oder nicht. Eventuell kann man da auch was in den nVidia Treibern einstellen? Im schlimmsten Fall: andere Software nutzen.

VG,
Mad
 
Ich habe bereits CUDA in TMPGEnc deaktiviert, aber die Grafikkarte taktet sich trotzdem hoch.
 
ist es vlt irgendwo im Treiber noch einstellbar? (Sorry hab keine NVidia Karte, kenn mich damit nicht aus ;) )
 
Nein, im Treiber kann ich nur die Energiespareinstellungen auf "Adaptiv" stellen, was ich bereits getan habe.
 
ich bezog mich aufs Cuda
 
Zurück
Oben