Desktop verbrauch der RTX 5090

wern001

Admiral
Registriert
Mai 2017
Beiträge
8.811
Hallo,
hab seit kurzem eine RTX 5090. Die verbrauch im Desktopbetrieb deutlich mehr Strom als meine RTX 3090
Hab hier zwei Monitore 1x FHD@60 Hz (HDMI) 1x UHD@120 Hz (DP). Wenn ich meine ganzen Fenster offen hatte brauchte die RTX 3090 ca 30-33 Watt und takte meist bei mit genau 400 MHz mit ausschläge auf 800 MHz
Die RTX 5090 brauch ca 58-63 Watt und taktet mit ca 500-600 Mhz mit ausschlägen auf bis zu 1100 MHz.
Hab es mit etwas UV probiert dann taktet die hoch auf ca 1200 Mhz bei ca 50-55 Watt ohne zappler nach oben.

Ist dieses verhalten normal?
Ich würde den Stromverbrauch im desktopbetrieb gerne deutlich senken.
 
Zuletzt bearbeitet:
Oder teste, was passiert, wenn du beide Monitore mit der gleichen Bildwiederholfrequenz betreibst.

Ich weiß, es ist nicht Sinn der Sache, den 120 Hz Schirm auf 60 Hz zu stellen, aber das kann einen Unterschied machen. Falls ja kannst du abwägen was dir wichtiger ist, falls es keinen Unterschied macht ist zumindest das ausgeschlossen.

Nachtrag:
Geht es dir denn um die Kosten oder um eine bessere (leise) Lüftersteuerung?
Aufs Jahr gesehen dürftest du bei 20 Watt Ersparnis bei mehr oder weniger 50 Euro (so ganz grob überschlagen) landen, wenn die Kiste 24/365 läuft. Wie viel Aufwand dir das wert ist ist deine Entscheidung.
 
kein unterschied bei nur einem Monitor.
Was mir auffällt ist wenn ich den Monitor auf 160 Hz habe geht der VRam takt auf 100% 14000 MHz. Die RTX 3090 ging da "nur" auf 50% 5000 MHz

auch mit 2x 60 Hz bleibt es bei ca 60 Watt
 
ne nur kabel abgezogen
 
Ist normal. Guck Dir doch den Test an. Multi Monitor und Idle Verbrauch sind ein Witz bei der Karte. Die 5080 kann es, warum auch immer, deutlich besser.
 
  • Gefällt mir
Reaktionen: -MK
der inspector funktioniert nicht mehr richtig. egal was ich anklicke
1742763167729.png


Isch hab doch kein iGPU
 
t3chn0 schrieb:
Ist normal. Guck Dir doch den Test an. Multi Monitor und Idle Verbrauch sind ein Witz bei der Karte. Die 5080 kann es, warum auch immer, deutlich besser.
Ich würde einfach mal auf das SI/den Speicherausbau tippen... Auch die 4090 packt im Vergleich zur 4080 und den anderen Karten ordentlich was drauf.
 
CPU ist ein TR 7970
Wenn ich den PC neu starte und nur afterburner offen habe dann brauch die gpu auch nur ca 40 watt.
Offen ist 3x RDP, opera (ca 40 tabs), firefox ca (ca 40-50 tabs) chrome (ca 10 tabs), und noch anderes zeug
 
Mein Wireview zeigt am Desktop auch ständig 50W an an der Graka.
Nur ein Monitor. Nichts offen. Müssen wir wohl schauen, dass Nvidia noch nachbessert.

Viel Leistung, will viel Saft haben, auch im Idle^^
 
Meine 4090 zieht im Idle auch 30W bei 240Hz und vlt. 20W, wenn ich überhaupt gar nichts mache. Die 5090er hat ein noch fetteres SI, wird daher nie weniger verbrauchen als jetzt.
 
Jedem anderen würde ich jetzt einen Link zum CB-Test schicken, aber bei jemandem mit knapp 8.000 Beiträgen müsste man so viel Eigeninitiative doch erwarten können, oder etwa nicht?

Ich sehe in deinem Fall keine neuen Zahlen (weil ich den Test kenne :D )
 
  • Gefällt mir
Reaktionen: HisN
Wichtig sind die Taktraten die GPU und VRAM haben. Idle bei Nvidia ist GPU 201 mhz - RAM 405 mhz. Ich habe an meiner 4070 zwei Screens - beide 1440p - einer (AOC)180 hz - einer (MSI)165 hz. Lasse ich den MSI mit 144hz laufen, was die native Wiederholrate des Panels dieses Gerätes ist, geht die Karte in exakt diesen Idel State wie beschrieben. Karte zieht dann 14 Watt. Das hat auch nix mit den Treibern usw. zu tun sondern mit der Pixel Clock der Monitore.

Daher mal mit den Refresh Rates im Multimonitor Betrieb arbeiten. Idle ist wie gesagt: GPU 210 mhz - VRAM 405 Mhz. Drunter geht keine NV Karte - egal ob Ada Lovelace oder Blackwell. Das Verhalten ist hier generationsübergreifend seit Maxwell gleich.
 
Zurück
Oben