Sromsparen mit zwei Grafikkarten?!

Tester18

Cadet 3rd Year
Registriert
Feb. 2007
Beiträge
55
Hallo,

Kann mir jemand sagen ob im Gerätemanager deaktivierten Geräte genau so viel Strom ziehen wie im aktivierten Zustand? Bzw. ist durch das deaktivieren in meinem Fall der 8800GT 512MB Stromersparnissen zu rechnen oder nicht?

Die 8800gt brauche ich nur zum Zogen, was in letzter Zeit ziemlich selten ist, die meiste Zeit wird der Rechner mit Berechnungen/Simulationen (CPU Berechnungen) ausgelastet, die Grafikkarte verbraucht also nur unnötig Strom. Ich habe allerdings noch eine alte 6200 hier rum liegen, die wollte ich nun einbauen und die 8800e unter Win deaktivieren.
 
Eine Möglichkeit wäre es ein Strommeßgerät anzuschließen und den Leistungsunterschied zu messen.






MFG
 
Nja, die 6200 ist in jedem Fall mit weniger Strom zufrieden wie deine 8800GT. Aber an deiner Stelle würde ich das System so belassen wie es ist! Wenn du Stromsparen willst schalte lieber die Stromsparfunktionen ein, also C1E und IntelSpeedStep (EIST)!!!

gruss
 
C1E und IntelSpeedStep (EIST)

naja wenn die CPU durch Berechnungen ausgelastet wird bringt das nicht wirklich was ^^. Bau dir entweder die 6200 dauerhaft rein oder aber bring deiner 8800GT bei wie sie im 2D-Modus Strom spart. Siehe hier: https://www.computerbase.de/forum/threads/nvidia-geforce-8800-gt-g92-cool-quiet.391848/

Wenn du ab und zu zocken willst würde ich sagen lass die 8800 drin und gib ihr halt nen möglichst niedrigen 2D-Takt mit auf den Weg, sodass der Stromverbrauch deutlich gesenkt wird.
 
Nee, das dürfte nix bringen.
Schade, wäre aber eine feine Sache...

naja wenn die CPU durch Berechnungen ausgelastet wird bringt das nicht wirklich was ^^.
Jepp, bei 4 Simulation (Je Kern eine Simulation) habe ich je nach Integrationszeit und Reibkraft von 3 bis 5Tage 100% Auslastung, da bringen die Stromsparfunktionen der CPU nicht viel, sind aber dennoch aktiv.

Bau dir entweder die 6200 dauerhaft rein
Wäre für die nächsten Paar Wochen natürlich auch eine Option, zum zogen habe ich eh keine Zeit...

oder aber bring deiner 8800GT bei wie sie im 2D-Modus Strom spart. Siehe hier: https://www.computerbase.de/forum/threads/nvidia-geforce-8800-gt-g92-cool-quiet.391848/
Damit werde ich mich wenn ich etwas mehr Zeit habe befassen, danke schon mal für den Link.
 
Jede verbaute Komponente zieht Strom, solange die G92-Chips nicht unter Windows deaktiviert oder heruntergetaktet - wie beim ATI-Powerplay - werden, würde ich die Karte tatsächlich ausbauen.

Bei meinen Tests mit Messgerät hat sich ergeben, daß selbst die kleinsten/ältesten Grafikkarten (PCI, AGP - G200, G400, Geforce2, X800 u.a.) nicht an einen onboard-Chip GMA 900, aktuell bei mir 3100) herankommen.

Oder gleich aufrüsten ... :lol:
https://www.computerbase.de/news/grafikkarten/nvidia-geforce-gtx-280-im-idle-bei-25-watt.22129/
 
solange die G92-Chips nicht unter Windows deaktiviert - wie beim ATI-Powerplay - werden, würde ich die Karte tatsächlich ausbauen.
Wie kann ich es deaktivieren? Und bringt es tatsächlich was?
 
Tester18 schrieb:
Wie kann ich es deaktivieren?

Wie ich schon sagte, mit dieser Generation von nVidia geht es noch nicht, die aktuelle Entwicklung Hybrid-SLI kann immerhin unter Vista - geeigneter Chipsatz auf Mainboard (720a-780a) und onboard-Grafik (8100-8300) vorhanden - mit "Energy Save" quasi die gesamte Stromaufnahme der Grafikkarte abschalten, selbst die Lüfter der GPU werden deaktiviert. Für die Lautstärke im Office-Betrieb sehr wichtig. Siehe PCGH 07/2008, S. 52f.
 
Zurück
Oben