Nützliche Info zum Stromverbrauch bei 144Hz

benneque schrieb:
Du müsstest jetzt auch mal getrennt schauen, wie viel davon PC und wie viel der Monitor ausmacht.
Der Bildschirm muss bei 240Hz immerhin 4x so oft schalten und rechnen. Das wird sicherlich auch einiges ausmachen.

Habe den Beitrag oben editiert; war etwas missverständlich. Der Bildschirm ist angeschlossen, jedoch ausgeschaltet. Somit ist er vom Messgerät gar nicht erfasst.
 
Habe auch noch einen Nachtrag: da ich noch über HDMI 2.0 eine CaptureCard zum Streamen nutze, habe ich zwei mal 1440p@144Hz an meiner 1080Ti, dann taktet meine 1080Ti auf 1556 MHz und verbrät 30 % TDP... Solang das Streaming-Setup ausgeschaltet ist, taktet sie auf niedrigste Stufe... Ist nun mal leider so...
 
Hi ,

also ich schon ein Weile her , aber ...
Ich habe auch das Problem mit 144Hz und mehr Strom Verbrauch im IDL!
Nun, mich stört nicht ob 120 oder 144, nur das Problem ist beim Neustart flackert mein Bildschirm!
Gibt es mittlerweile schon eine Lösung?

Hier mein System:

CPU : AMD 3600(kein OC)

Moard: Gigabyte X570(mini ATX)

VGA: AMD 5700(letzte Treiber drauf)

DDR: 16GB

NT: BeQuite 450W
 
Das würde mich auch interessieren. Ich habe eine RX580 und der Rechner braucht mit 2K und 144Hz und auch 120 Hz ca. 32% mehr Strom im idle, da der Speicher nicht runtertaktet.

Im Treiber ist das niedrigste, was ich einstellen kann 1750 Mhz (Standard sind 2000 Mhz).

Bis vor kurzem hatte ich noch einen 4K 60 Hz Monitor, da wars das gleiche. Unter Linux konnte ich GPU- und Speichertakt per Software auf jeweils 300 Mhz begrenzen und beim Schauen von Youtube-Videos ca. 30-40 Watt sparen ohne irgendwelche Nachteile zu haben. Aus Leistungsgründen läuft der Speichertakt also nicht am Maximum.
 
Zurück
Oben