Erfahrungen gesucht: Hoher Idle-Stromverbrauch

Vitche

Redakteur
Teammitglied
Registriert
Aug. 2016
Beiträge
3.097
ComputerBase befasst sich derzeit mit einer schon lang anwährenden Problematik bei Nvidias Turing-Grafikarchitektur. Deren Stromverbrauch ist – wie wir vermutlich alle wissen – unter Last vorbildlich, im Betrieb auf dem Windows-Desktop offenbaren sich jedoch mitunter Probleme.
Äußerst problematisch wird es dann, sobald mehrere (>= 2) hochauflösende Displays verwendet werden und auch Nvidias G-Sync zum Einsatz kommt. Typisch sind dann bei Konstellationen zweier oder gar mehrer hochauflösender Monitore und einer RTX 2080 Leistungsaufnahmen von 50 bis 60 Watt, also dem rund doppelten bis dreifachen dessen, was normal anliegen würde. Einige Nutzer berichten über ähnliche Probleme bei mehreren Monitoren beliebiger Auflösung und mit hoher Bildwiederholrate.
Sobald G-Sync deaktiviert wird, reduziert sich die Leistungsaufnahme wieder auf ungefähr 25 Watt bei zwei UHD-Monitoren. Ebenso hoch liegt der Verbrauch, wenn G-Sync zwar aktiv ist, die beiden Bildschirme aber via Nvidia Surround zu einer 7680 × 2160 Pixel messenden Fläche verbunden werden. Zustande kommen diese Ergebnisse, weil die GPU ihren takt im Idle nicht auf die bei Turing korrekten 300 MHz senkt, sondern dieser abhängig der Monitore und der gegebenenfalls angelegten Übertaktung deutlich (drei- bis vierfach) höher liegt.

Da es schwierig ist, zahlreiche Konstellationen an Bildschirmen und Grafikkarten in der Redaktion intern nachzustellen, wollte ich in Anbetracht der erfolgreichen CB-Community-Tests auffordern, eigene Erfahrungen zu teilen.

Der nachfolgenden Tabelle können dabei die bereits mit einer RTX 2080 getesteten Auflösungen entnommen werden, die problematischen und zu hohen Werte sind fett markiert. Besonders interessant sind demnach Tests mit anderen Turing-Grafikkarten, höheren Bildwiederholraten sowie "echten" G-Sync-Monitoren, aber auch die vorhandenen Messwerte bestätigende Daten sind willkommen. Ebenso sind auch Ergebnisse mit gänzlich anderen GPU-Generationen interessant, seien es Nvidia- oder auch AMD-Modelle. Wichtig ist nur, dass ihr in die entsprechende Zielgruppe mit mindestens zwei hochauflösenden Disyplays und adaptiver Synchronisation oder hoher Bildwiederholrate fallt.

Link zur Docs-Tabelle

Falls ihr eigene Messwerte beisteuern wollt, könnt ihr diese einfach in die Tabelle eintragen. Stellt dabei bitte sicher, dass ihr keine vorhandenen Werte löscht und gebt euren Forum-Namen an. Gegebenenfalls könnt ihr auch gerne neue Spalten oder Zeilen hinzufügen, achtet jedoch auch dabei bitte darauf, die Struktur der Tabelle und vorhandenen Daten nicht zu zerstören. Sowohl Takt als auch Leistungsaufnahme werden dabei mit GPU-Z ausgelesen. Achtet überdies darauf, aktuelle Treiber zu verwenden.
 
Zuletzt bearbeitet:
Unabhängig zum dem Vergleich:
300 sind nicht korrekter als 810 oder 1140. Sondern lediglich andere Laststufen. Damals unter meiner HD5870 habe ich die P-States angepasst, um die Karte unter höherer Last niedrig zu takten. Das klappte. Man konnte auch einsehen, welcher gerade aktiv ist. Nvidia wird jedoch schon einen Grund haben, weshalb Turing höher taktet bei komplexer Anzeige (viele Anzeigen, Kommunikation mit G-Sync Modul). Gibt es heute noch Tools, um dies anzupassen? Das wär ein guter Workaround. Hier die Definitionen von NV.
 
estros schrieb:
Gibt es heute noch Tools, um dies anzupassen? Das wär ein guter Workaround.

Da zitiere ich den entstehenden Bericht mal eben:

Eine alternative, aber mit eigenen Problemen daherkommende Lösung ist das Tweak-Tool Nvidia Inspector. Das Drittanbieter-Werkzeug bietet die Möglichkeit, einen niedrigeren Takt der Grafikkarte zu erzwingen, sofern diese nur gering ausgelastet wird. Ein Rechtsklick auf die Schaltfläche „Hide Overklocking“ gestattet Zugriff auf den integrierten „Multi Display Power Saver“. Anschließend zeigt das Programm die installierten Grafikprozessoren und deren Performance State. Eben dieser kann mit Hilfe des Tools gesenkt werden, entsprechend sinkt auch der Idle-Takt – aber im Falle der RTX 2080 beispielsweise nur auf rund 600 MHz.

Erneut zeigt sich zudem, dass mit einer Minderung der Übertaktung auch der effektive Idle-Takt sinkt; gelöst wird das Problem also nur teilweise. Des Weiteren schränkt der Nutzer die Grafikkarte nun manuell ein. Sobald diese den Takt erhöhen möchte, wenn Leistungsreserven tatsächlich benötigt werden, geht das nur mit spürbarer Verzögerung. Visuell aufwändigere Windows-Tastenkombinationen, wie beispielsweise „Windows“ + „Tabulator“, ruckeln deutlich. Zudem provoziert das Tool mitunter ein kurzes Flackern des Bildes, sobald es greift oder seine Fesseln lockert.
 
  • Gefällt mir
Reaktionen: estros
für mein sys fehlt folgende kombi: 2x1440p, 2160p
300MHz kann ich dir jetzt schon sagen. watt müsst ich nach feierabend gucken.
 
Ist das nur bei nvidia so? Meine Vega taktet auch hoch bei Multi-Monitor Betrieb, sobald WQHD und 144Hz im Spiel sind (Linux) - wie es in Windows aussieht muss ich gleich mal testen.
Meine alte RX 570 hat sich auf jeden Fall auch in Windows so verhalten. Da wurde der Memory Takt auch hochgefahren.
 
suRe schrieb:
Ist das nur bei nvidia so?
Bisher konnte ich es nur bei Nvidia-Grafikkarten selbst reproduzieren, aber eben genau dafür ist dieser Thread ja da: Mich würde brennend interessieren, wie dein Setup und das von Dir festgestellte Verhalten genau aussieht!
 
ich hab gestern mal geguckt:

1x 1440p: 300MHz, 22W
2x 1440p: 300MHz, 36W
2x 1440p + 2160p: 1245MHz, 77W

beim verbrauch bin ich mir grade nicht 100%ig sicher. habs nur aus dem kopf gedingst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Vitche
@yaegi Danke für deine Ergebnisse, die bestätigen die meinem quasi exakt. Könntest du noch einmal schauen, ob sich auch bei dir der Takt bei allen drei Monitoren auf 300 MHz senkt, sobald du G-Sync deaktivierst?
 
Gehts hier nur um Turing?
Bei meiner GTX 1060 schießt der Stromverbrauch bei 3 Displays mit FHD auch in die Decke. Ohne G-Sync und anderen Schnicksschnack.
 
Oh, na also, da hat sich doch direkt noch etwas interessantes gefunden.
@yaegi Wie sieht es denn bei dir aus, wenn du nur den UHD- und einen WQHD-Monitor anschließt?
@krong Und bei zwei Displays ist alles „normal“?
 
Meine GTX 1080 aorus 11gbs 8gd läuft mit 2 Monitore auf 17xxMhz Idle Takt wenn:
144hz + 60hz in Verwendung sind.
60/60hz läuft sie auf 140Mhz idle.

144Hz Monitor auf 120Hz eingestellt ist, also: 120Hz+60Hz ebenfalls 140Mhz Takt.
140Mhz = 5w idle Verbrauch
17xxMhz = 50w idle Verbrauch.

Traurig dass es Nvidia mit dem 144Hz nicht auf die Reihe bekommt.
 
Damit hat sich dann auch die Problematik mit hohen Bildwiederholraten erneut bestätigt, und das sogar bei Pascal. Seufz.
 
  • Gefällt mir
Reaktionen: Vitche
Vitche schrieb:
@yaegi Wie sieht es denn bei dir aus, wenn du nur den UHD- und einen WQHD-Monitor anschließt?
300MHz, 36W
entspricht auch den 2x1440p. habs oben korrigiert
 
  • Gefällt mir
Reaktionen: Vitche
Hallo zusammen, bin zwar eher Laie bei diesem Thema, kann aber dennoch meine Erfahrungen teilen. Mit Bitte um Nachsicht, falls etwas fehlerhaft oder inkorrekt sein sollte. ;-)
Ich habe eine INNO3D GTX 1080 Ti X3 ULTRA. Angeschlossen sind drei Monitore: der Hauptmonitor, 34 Zoll, UWQHD, GSync, 100 Hz; sowie zwei 1080p Monitore mit 60 Hz ohne GSync.

Im Idle liegt der Takt der GPU im Core bei 1493 MHz, die Temperatur im Core bei konstant 57°C. Der Stromverbrauch liegt relativ konstant um 64W.
Interessanterweise ändert sich an den genannten Werten nichts, wenn GSync deaktiviert ist.


Ich hoffe, ich konnte etwas Hilfreiches beitragen, gerne nachfragen, wenn Bedarf besteht.
 
  • Gefällt mir
Reaktionen: Slainer und Vitche
@LONZESIN43 Danke für deinen Beitrag! Könntest du noch mitteilen, was passiert, wenn du einzelne Displays absteckst? Also wie hoch der Takt ist, wenn beispielsweise nur einmal UWQHD und FHD betrieben werden? Und auch noch interessant wäre es, herauszufinden, ob es bei lediglich 60 Hz auf allen Monitoren besser aussieht.
 
@Vitche Das Heruntertakten des Hauptmonitors auf 60 Hz, äquivalent zu den beiden anderen ändert nichts. Wenn nur noch der Hauptmonitor mit UWQHD und 100 Hz angeschlossen ist, sinkt der Takt auf 139 MHz und der Stromverbrauch liegt konstant um 22W. Wenn ich einen 1080p -Monitor dazu einstecke bleiben die Werte auf diesem niedrigen Niveau. Erst, wenn ich den dritten 1080p -Monitor anschließe gehen die Werte wieder nach oben. Laufen nur die beiden 1080p -Monitore, sind die Werte wieder auf demselben niedrigen Niveau. Es scheint also ausschließlich relevant zu sein, ob drei Monitore angeschlossen sind. Sobald, ein dritter abgesteckt ist (egal welcher), sinken die Werte auf die oben genannten.
 
  • Gefällt mir
Reaktionen: Vitche
Zurück
Oben