@Drachton: Die +/-2% beziehen sich glaub auf die Spannung. 2% von eh schon relativ geringem Verbrauch wär ja total sinnfrei.
Dazu kommt, das das CB Testsystem aus u.a. einem 4GHz QC besteht, was den hohen Verbauch im Idle erklärt. Ist ja das gesamte System. Mein X2 5000+ mit ner 3870 zieht grad noch 73W und das mitm total überdimensionierten NT, die 9600 ist ja kaum schlechter.
Außerdem wo hast du 144W gelesen?
https://www.computerbase.de/2008-02/test-nvidia-geforce-9600-gt-sli/27/#abschnitt_leistungsaufnahme
Was mich eher verwundert, ist, dass NVIDIA die Taktung senken muss, um die Spannungsabsenkung hinzuekommen, die 50MHz machen den Kohl ja auch nicht fett beim Verbrauch?!? Die 55nm bringen ja anscheinend gar nix in der Richtung.
EDIT: Mist, zu langsam
Adam Gontier schrieb:
Da stand was davon, dass die Spannung gesenkt wurde, damit weniger Strom verbraucht wird, heißt das, dass wenn ich übertakte und die Spannung erhöhe, dass nichts anderes passiert, als das mehr Strom verbraucht wird??
Du hast das erfasst
Und deine CPU/GPU wird natürlich schneller. Logisch.
Nicht nur das, selbst wenn du übertaktest,
ohne die Spannung zu erhöhen, steigt (in geringem Maße) der Stromverbrauch.
Am Besten wärs, du OCst und senkst gleichzeitig die Spannung, allerdings wirst du da nicht weit kommen, aber Spannung absenken ohne die Leistung zu ändern ist meistens kein Problem, was eigentlich nur Vorteile bringt.