Stromverbrauch Frage

Zerbich

Commander
Registriert
Juni 2008
Beiträge
2.219
Servus,

wenn in einem Test steht, dass das Gesamtsystem mit der Karte (zb. Gtx 780 Ti) 440 Watt unter last braucht und eine Gtx 660 nur 380 Watt... Braucht die Ti dann nur mehr Strom, wenn sie beide 100% ausgelastet sind?

Sagen wir mal, ich spiele Counter Strike oder so, wo sich die Ti langweilt... braucht die Ti dann noch immer so viel mehr?
 
Nein, moderne Grafikkarten haben Stromspartechniken womit sie im Idle (also Windows) kaum mehr Strom "verbrauchen".

Es wird wohl so sein, dass eine 780 Ti auch im Idle noch eine höhere Leistungsaufnahme als bspw. eine 750 Ti hat, aber das sind dann wohl nur ein paar Watt.

Wenn beide Grafikkarten allerdings unter Volllast laufen (insbesondere ohne Vsync), braucht die 780 Ti im oben genannten Beispielt weit mehr. Dafür bietet sie aber natürlich auch eine höhere Leistung.
 
und in Dota2? glaube da geht nicht mehr als 120 FPS. somit muss sie nicht mehr leisten
 
Grundsätzlich lässt sich durch begrenzen der FPS bei Grafikkarten einiges an Energie einsparen. Die HighEnd-Karte ist dann entsprechend weniger ausgelastet als die Mittelklassekarte und somit weiter von ihrem theoretischen Verbrauchsmaximum entfernt.
Allerdings musst du die FPS auch wirklich begrenzen, die meisten Spiele tun dies nicht (außer bei aktivem VSync), sodass beide Grafikkarten einfach auf Volllast laufen, es sei denn es kommt anderweilig zu Limits (CPU, Speicherbandbreite, etc).

Welche Grafikkarte nun effizienter ist (also bei gleicher Bildrate sparsamer), wird leider extrem selten getestet.
Theoretisch wäre beides denkbar, ich könnte mir gut vorstellen, dass es effizienter sein könnte, die Berechnung bei geringerer Taktrate (und entsprechend geringerer Spannung) auf einer höheren Anzahl von CUs durchzuführen, zumindest bei guter Leistungssteuerung oder manueller Untertaktung.
 
Zurück
Oben