Strom sparen bei 5120x1440

mael15

Cadet 1st Year
Registriert
Feb. 2022
Beiträge
12
Hallo zusammen,
ich möchte gerne meine Stromverbrauch reduzieren. Als ich den jetzigen Rechner zusammengestellt habe, dachte ich noch, dass ich ab und zu auch mal ein aktuelles Spiel zocken würde. Das ist mittlerweile nicht mehr der Fall.
Ich arbeite im Home Office als Software Ingenieur und mache nichts mit 3D. Der größte Teil meines Stromverbrauchs kommt vom Computer, ein erster Schritt zu Reduktion war die CPU im Eco Mode zu betreiben und die alten drei Monitore gegen einen großen auszutauschen. Jetzt frage ich mich ob ich bei der Grafikkarte etwas sparen kann, es scheint von Geforce nicht sowas wie eine Eco Mode zu geben.
Quasi alle Reviews testen wieviel Gaming Leistung man für wieviel Geld bekommen kann, was für mich nicht relevant ist. Ich möchte meinen großen Monitor mit möglichst wenig Leistung nutzen.
Wie schaffe ich das? Danke!


[Bitte fülle den folgenden Fragebogen unbedingt vollständig aus, damit andere Nutzer dir effizient helfen können. Danke! :)]


1. Wie viel Geld bist du bereit auszugeben?
ohne limit

2. Möchtest du mit der Grafikkarte spielen?
  • nein
3. Möchtest du die Grafikkarte für spezielle Programme & Anwendungen (z.b. CAD) nutzen? Als Hobby oder bist du Profi? Welche Software wirst du nutzen?
Visual Studio, Photoshop, Reaper DAW

4. . Wieviele und welche Monitore möchtest du nutzen? Wird G-Sync/FreeSync unterstützt? (Bitte mit Link zum Hersteller oder Preisvergleich!)
1 Samsung C49RG94SSR https://www.samsung.com/de/monitors...49-inch-120hz-freesync-curved-lc49rg94ssrxzg/

5. Nenne uns bitte deine aktuelle/bisherige Hardware:
  • Prozessor (CPU): Ryzen 9 5950x @ 3400
  • Aktuelle/Bisherige Grafikkarte (GPU): Geforce RTX 3060Ti
  • Netzteil(Genaue Bezeichnung):
  • Gehäuse: Midi Tower
6. Hast du besondere Wünsche bezüglich der Grafikkarte? (Lautstärke, Anschlüsse, Farbe, Hersteller, Beleuchtung etc.)
möglichst wenig Stromverbrauch

7. Wann möchtest du die Karte kaufen? Möglichst sofort oder kannst du noch ein paar Wochen/Monate warten?
egal
 
Jede Grafikkarte verbraucht nur so viel Strom, wie auch notwendig ist. Macht die Karte nichts, dann ist der Verbrauch dementsprechend niedrig. Schau doch einfach mal mittels "hwinfo", was im Leerlauf verbraucht wird.

https://www.hwinfo.com/
 
wie viel strom frisst die graka im normalen betrieb denn überhaupt?

grundsätzlich könnte man die karte undervolten, aber das bringt im leerlauf nichts.
 
Die Grafikkarte wird nicht höher takten als nötig nur weil ein Monitor mit hoher Auflösung dranhängt. Das juckt die überhaupt nicht. Solange du keine grafiklastigen Anwendungen laufen hast solltest du dir da keine Gedanken machen und wenn du welche laufen hast eigentlich auch nicht...du nutzt sie ja dann nun mal.

Nutze deinen Rechner einfach.
 
okay, vielen dank für die schnellen antworten! laut hwinfo werden im normalen zustand nur 18W verbraucht, das ist dann tatsächlich recht wenig. ich vermute dann kann ich wohl nicht weiter sparen, oder hat noch jemand eine idee?
 
Mit dem aktuellen System wird nicht mehr viel gehen. Ansonsten müsste halt der aktuelle Rechner weg und dafür dann etwas schlankes her, wenn es um niedrigsten Stromverbrauch geht. Ein NUC oder ein Mac Mini.
 
@mael15:
viel weniger geht jedenfalls nicht. welche karte genau ist das denn? bzw: hat die ne beleuchtung? wenn ja -> ausschalten.
 
Na höchsten eine CPU mit iGPU nutzen… auf AM4 wäre das aber ein downgrade. Bleibt Intel… aber eh du den Vorteil wieder rein hast. Lass es so 😉
 
Im niedrigsten Power State der GPU sollten es laut CB etwa 11W im Leerlauf sein. Wenn die Kombination aus hoher Auflösung und Bildwiederholfrequenz einen bestimmten Wert überschreitet takten GPU's ihren Speicher nicht mehr komplett herunter (siehe im Test mit 2x 4k Monitor). Der Monitor kann ja 120Hz. Du kannst mal versuchen ihn auf 100, 80 oder 60Hz zu stellen und schauen ob die GPU dann weniger verbraucht.
Die Ersparnis ist aber sehr gering.
 
mael15 schrieb:
oder hat noch jemand eine idee?
Durchrechnen, ob sich ein Wechsel finanziell lohnt, wenn man die Anschaffungskosten gegen die Ersparnis stellt. Und wenn über welchen Zeitraum und wann würde man sowieso das jeweilige Gerät tauschen.

Der Monitor braucht laut Angabe 55W. Sind wir großzügig und sagen, die 3 alten Monitore brauchen 215W. Das macht eine Differenz von 160W. Bei einem Anschaffungspreis von 900€ und 40Ct/kwh (Preise sind ja teilweise dezent gestiegen), sind das 2250kwh, was knackige 14000h sind, wenn man das über den Stromverbrauch sparen will. Bei 8h Nutzung an jedem Tag sind das 5 Jahre.
Und das ist schon schöngerechnet mit der hohen Ersparnis und 8h jeden Tag.

Da du aber einen geilen Monitor hast, lässt sich das eh rechtfertigen :daumen:
Nur bei anderen Geräten sollte man das vielleicht beachten ;)

Ich kann immer wieder nur dazu raten, die Standbyverbräuche ALLER Geräte zu messen. Und ob sie überhaupt im richtigen Standby sind
 
Zuletzt bearbeitet:
Ich habe ebenfalls eine 3060ti (founders) und habe daher gerade mal eine kleine Messreihe angestellt. Windows 11 Desktop, Edge Browser und hwinfo offen - jeweils ca. 30 Sekunden laufen gelassen und den Mittelwert über den dicken Daumen gepeilt.

Gemessen mit hwinfo beträgt der GPU-Stromverbrauch:

1080p, 60hz, SDR8,7W
2160p, 60Hz, SDR11,5W
2160p, 144Hz, SDR15W
2160p, 144Hz, HDR19,7W

Probe aufs Exempel: Afterburner an, Powerlimit auf 50% - keine Änderung.

Ja, auch ohne 3D Anwendung hast du einen Einfluss auf den Stromverbrauch deiner Grafikkarte. Je mehr Monitor-Features du dazuschaltest, desto mehr Strom verbraucht die Grafikkarte (Schocker, ich weiß). Auch dein Monitor wird natürlich weniger Strom verbrauchen, wenn du ihn mit 60Hz statt 120Hz betreibst.

Ansonsten wirst du aus der Grafikkarte nicht viel mehr Effizienz herausbekommen, da sie ja sowieso schon recht sparsam läuft. Deutlich mehr Energie-Effizienz erreichst du wohl nur, wenn du eine CPU mit integrierter Grafik nutzen würdest.

viele Grüße
 
Mit HDR kann man den Stromverbrauch des Monitors noch deutlich stärker in die Höhe treiben.
Da empfiehlt es sich mal nachzumessen (oder in Test´s nachzulesen), denn die Werksangaben zu HDR sind oft sehr unrealistisch.
Bei HDR 1000 ist man schnell bei einer 150% höherer Leistungaufnahme, wenn der SDR Modus etwa bei 200 cd/m² liegt.
Danach überlegt man es sich zweimal ob man HDR länger oder dauerhaft nutzen will. Abgesehen von dem Stromverbrauch heizt der dann ja auch gut den Raum auf.
 
Danke an alle!
Ich habe folgende Optimierungen noch gemacht:
  • Framerate von 120 auf 60Hz reduziert
  • HDR in Windows ausgeschaltet
  • LED der Grafikkarte durch Stecker ziehen deaktiviert
  • Mainboard LEDs im BIOS deaktiviert
  • RAM LEDs mit OpenRGB deaktiviert (profil muss mit windows geladen werden)
Endlich ein dunkler PC! War erschreckend kompliziert.
Ich weiß dass das alles nicht sehr viel bringt, aber ich denke es wird sich über ein Jahr hin aufsummieren. Und die LEDs haben mich schon immer genervt.
:)
 
  • Gefällt mir
Reaktionen: lumpi2k
Zurück
Oben