nVidia GeForce GTX Titan zum Energiesparen runtertakten

Sind dort vielleicht andere 3D Elemente, welche die Grafikkarte anheizen? UI (wie aero z. B.)?

@Meckervolk: Er hat völlig recht! Und es ist nicht wie sich zu beschweren, dass der Porsche zu viel Sprit braucht. Es ist wie sich zu beschweren, das der Porsche in der Garage zu viel Sprit braucht.
Habt ihr nur den Titel gelesen und wolltet was rauspressen?

Viele Grüße
Winni
 
WinKill schrieb:
Sind dort vielleicht andere 3D Elemente, welche die Grafikkarte anheizen? UI (wie aero z. B.)?

@Meckervolk: Er hat völlig recht! Und es ist nicht wie sich zu beschweren, dass der Porsche zu viel Sprit braucht. Es ist wie sich zu beschweren, das der Porsche in der Garage zu viel Sprit braucht.
Habt ihr nur den Titel gelesen und wolltet was rauspressen?

Viele Grüße
Winni
Hmm, das Programm hat ein Userinterface (was jetzt nicht ungewöhnlich für Programme ist) und halt eine Timeline, die ich aber nicht mal geöffnet haben muss, damit die Grafikkarte sich hochtaktet. Die taktet sich schon hoch, bevor das Programm komplett gestartet wurde, also wenn der Ladebalken des Programms bei ca. 75% ist.
 
Ich weiß jetzt nicht wies bei aktuellen nvidia desktopkarten aussieht, aber mit nvidia inspector kann ich auf meinem notebook die verschiedenen states halbwegs konfigurieren. Kannst da ja mal reinschauen, vielleicht gibts da ja ne möglichkeit der titan einhalt zu gebieten ;)
 
Magogan schrieb:
Ein Leistungsmessgerät habe ich bereits, auch dieses bestätigt die Anzeige von GPU-Z: Es sind wirklich ca. 40 Watt mehr Verbrauch, vielleicht auch nur 30, aber der Verbrauch steigt auf jeden Fall erheblich an. Tatsächlich habe ich das nur bemerkt, weil ich auf das Messgerät geguckt habe. Mal ganz abgesehen davon wird die Grafikkarte auch deutlich heißer (57°C) und der Lüfter dreht sich schneller, folglich wird also definitiv mehr Strom verbraucht.

Verstehe ich richtig, dass dein Messgerät im Windows idle x W anzeigt und nach Start des Programms x + ~35W? Da du Hardwarebeschleunigung ja deiner Aussage nach deaktiviert hast wird also die ganze "Arbeit" von der CPU gemacht. Ich glaube dir gerne, dass die GPU sich hochtaktet (warum auch immer), aber könnte ein Teil des Mehrverbrauchs vllt von der CPU verursacht werden? Probier doch mal aus um wie viel der Verbrauch ansteigt, wenn du die Titan nicht eingebaut hast (quasi nur den CPU-Anteil des Anstiegs messen).
 
KaHaKa schrieb:
Verstehe ich richtig, dass dein Messgerät im Windows idle x W anzeigt und nach Start des Programms x + ~35W? Da du Hardwarebeschleunigung ja deiner Aussage nach deaktiviert hast wird also die ganze "Arbeit" von der CPU gemacht. Ich glaube dir gerne, dass die GPU sich hochtaktet (warum auch immer), aber könnte ein Teil des Mehrverbrauchs vllt von der CPU verursacht werden? Probier doch mal aus um wie viel der Verbrauch ansteigt, wenn du die Titan nicht eingebaut hast (quasi nur den CPU-Anteil des Anstiegs messen).
Die CPU wird auch nicht belastet, wenn ich das Programm einfach nur starte und mich im Auswahlmenü befinde, wo ich auswählen kann, ob ich ein neues Projekt starten will usw. Der Encoding-Vorgang muss dazu nicht einmal laufen, also wird der Prozessor nicht belastet, die Grafikkarte taktet sich aber hoch und wird auch deutlich wärmer, sie verbraucht also definitiv mehr Strom, obwohl sie ebenfalls nicht belastet wird.
 
Magogan schrieb:
Die Grafikkarte möchte ich nicht zum Enkodieren nutzen, das soll ineffizient sein, was die Dateigröße anbelangt. Die Videos sind so schon teilweise 4-5 GB groß bei 20 Minuten Länge, größer müssen sie nun wirklich nicht werden :D

Hätte wäre und könnte sind die größten Behinderer von Fortschritt und Selbsterkenntniss .
 
xxMuahdibxx schrieb:
Hätte wäre und könnte sind die größten Behinderer von Fortschritt und Selbsterkenntniss .
Hab es sogar vorhin probiert. Es geht zwar schneller, aber das Video besteht entweder aus Pixelmatsch oder ist astronomisch groß (ich habe schon 20 MBit/s als Bitrate gewählt und hatte Pixelmatsch).
 
Mit Nvidia Inspector einen P-State erzwingen sollte helfen. Und Google sollte wissen, wie man das macht.
 
Magogan schrieb:
Hab es sogar vorhin probiert. Es geht zwar schneller, aber das Video besteht entweder aus Pixelmatsch oder ist astronomisch groß (ich habe schon 20 MBit/s als Bitrate gewählt und hatte Pixelmatsch).

Tja, mit Intel QuickSync wäre das wohl nicht passiert. ;)
 
CH4F schrieb:
Tja, mit Intel QuickSync wäre das wohl nicht passiert. ;)
Mit x264 habe ich keine Probleme... Ich möchte CUDA einfach nicht dafür nutzen und folglich auch Energie sparen, weil die Grafikkarte ja nichts tut...
 
Da sieht man wieder das Phänomen, dass die, die das Geld haben am meisten nörgeln und sparen wollen! 1000€ für ne Graka hinblättern und dann wegen 20€-25€ im JAHR!!!! Jammern.....sorry aber das muss man nicht verstehen!

Nur mal so als Frage! Hast du evtl. unter der Nvidia-Systemsteuerung schon mal geschaut auf was der Energieverwaltungsmodus gestellt ist! Stell da mal Adaptiv ein und installiere ggf. die Treiber der Graka vorher neu! Hatte dasselbe Problem mit einer 680er! Stromversorgung auf Adaptiv und Treiber vorher neu, und schon lief alles wieder wie gewohnt ;)
 
raits0601 schrieb:
Da sieht man wieder das Phänomen, dass die, die das Geld haben am meisten nörgeln und sparen wollen! 1000€ für ne Graka hinblättern und dann wegen 20€-25€ im JAHR!!!! Jammern.....sorry aber das muss man nicht verstehen!

Nur mal so als Frage! Hast du evtl. unter der Nvidia-Systemsteuerung schon mal geschaut auf was der Energieverwaltungsmodus gestellt ist! Stell da mal Adaptiv ein und installiere ggf. die Treiber der Graka vorher neu! Hatte dasselbe Problem mit einer 680er! Stromversorgung auf Adaptiv und Treiber vorher neu, und schon lief alles wieder wie gewohnt ;)
Für die 1000 Euro bekomme ich eine gute Grafikkarte, für die 20-25 Euro bekomme ich aber rein gar nichts. Warum sollte ich 25 Euro für nichts ausgeben? Selbst wenn ich die spenden würde, bekäme ich mehr, nämlich die Gewissheit, dass ich damit Menschen geholfen habe. Wenn ich die aber sinnlos für Strom ausgeben muss, dann haben nur die Bosse von den Stromkonzernen was davon - und die haben eh schon genug.

Den Treiber habe ich schon neu installiert und den Performance Mode bereits auf Adaptiv gestellt, geändert hat das aber nichts. Selbst mit dem nVidia Inspector bekomme ich das nicht hin, keine Ahnung, was ich da wieder falsch mache oder ob das damit überhaupt möglich ist.
 
Zum Energiesparen heißt die richtige Antwort: Undervolting. Meine GTX 780 läuft mit dem slv7-Bios stable mit max. 0,9370 V (flüsterleise im Performance-Modus=Volllast ,GPU Core Clock @ 902 MHz). Für die Titan gibt es auch ein passendes slv7-Bios, ob damit Undervolting möglich ist, müsstest du ausprobieren.
 
Zuletzt bearbeitet:
Weiterhin kann man z.b. im Afterburner die Taktraten für Programme festlegen ..
 
Ich habe eine Lösung für das Problem: Einfach die Datei UtilsCuda.vme im Ordner Programme\Pegasys Inc\TMPGEnc Video Mastering Works 5\ umbenennen und schon taktet sich die Grafikkarte beim Programmstart nicht mehr hoch :D
 
Zurück
Oben