Test GPU-Leistungsaufnahme: Auch Radeon kann auf dem Windows-Desktop sparsam sein

Mich würde im Test auch der 100% idle Verbrauch interessieren. Also kein Monitor angeschlossen.

Das Thema hybrid graphics auf dem Desktop bekommt sowieso zu wenig Aufmerksamkeit. Wusste bis dieses Jahr selbst nicht dass das geht. Dachte immer dafür sind custom Mainboards bei Laptops notwendig.

Nachdem meine 1080 Ti bei dual Monitor und Microsoft Teams (neuer Job) IMMER 70 Watt verbraucht hab ich mich da Mal schlau gemacht und meinen 5800x durch einen 5700G ersetzt und die Monitore ans Mainboard angeschlossenen.

Die 1080Ti bleibt jetzt in den 8-10h Homeoffice auf 13 Watt und der 5700G macht die Arbeit mit 10-30 Watt für CPU und iGPU.
Wenn ich abends zocke läuft die Berechnung dennoch über die 1080TI und die Ausgabe erfolgt übers Mainboard. Träumchen.
Und da würde mich wirklich Mal interessieren was neuere so Karten verbrauchen. Die 13Watt der 1080TI erscheinen mir auch Recht hoch, das geht bestimmt besser.


BG
Gabba
Ergänzung ()

Sky_Sk4p3r schrieb:
....
Ich habe jetzt einfach mal den FHD Monitor an das Mainboard gehangen (7800X3D). Die iGPU nimmt sich 25-30 W im Idle. Vielleicht weiß jemand was man da machen kann?
....

Wieso nicht beide Monitore an das Mainboard hängen und hybrid graphics nutzen? Dann schläft die 7900xtx zu 100% im Desktop. Zu Details siehe auch mein Post 1 weiter oben
 
Zuletzt bearbeitet:
RobiM schrieb:
Sapphire 7900XTX und LC Power UWQHD-Monitor mit 144Hz:

Ohne Adaptive Sync 49W im Idle
Mit Adaptive Sync 8-9W im Idle

Da ich es immer an habe, hatte ich die Hysterie um die hohen Stromverbräuche von RDNA 3 auch nie nachvollziehen können.

Weltweit wird in fast allen Tests über den Idle-Verbrauch gemeckert. CB findet endlich Erklärung. Deswegen seit ihr einer meiner absoluten Favoriten, wenn´s um PCs, Hardware, Technik usw. geht!
Mit nur einem einzigen Display hat es nimmer ein Problem gegeben.

Du bist schlichtweg nicht betroffen.

Eine erklärung hat CB nicht geliefert, siehe Artikel Überschrift... . Wie wissen nur das mit VRR etwas weniger Strom verbraucht wird. Warum das so ist, haben wir nicht erfahren...
 
Zuletzt bearbeitet:
Im Voraus wollte ich mich entschuldigen, wenn ich hier am Thema vorbei bin.

Falls jemand Interesse hat, meine Sapphire RX 7600 braucht übrigens unter Linux (Mint-Mate 21.2) zwischen 3 und 11 Watt, laut dem Sensor, den man mit dem Befehl "sensors" abfragen kann.
Wenn ich mit dem Firefox auf Netflix was sehe und auf Vollbild gehe, sind es ca 12-15 Watt. Wenn ich aber nur den Firefox aufhabe, um zum Beispiel hier die Nachrichten zu lesen, ist es etwas mehr, etwa 18 Watt.

Mit meiner RX 6600 waren es übrigens etwa 40 Watt (Linux Desktop) und 55 Watt (Linux mir Firefox Netflix Vollbild), aber auch etwa 3 Watt "idle".

Wenn der Bildschirm mit dem Power Management ausgeht, geht es zurück auf 2-3 Watt. Also der "idle" Zustand, unter dem Win11 irgendwas anderes darunter versteht.

Unter Win11 sieht es dann eher so aus, in der Systemsteuerung stelle ich "Energiesparen" ein und habe die Zeit, bis der Bildschirm ausgehen soll auf eine Minute gestellt.
Wie dort angegeben, geht der Bildschirm auch aus, sowie die Beleuchtung von Tastatur und Mouse.
Mein Strommesser in der Steckdose zeigt dann an, von 38.3 Watt (Desktop wird angezeigt), auf 34.1 Watt (Bildschirm + Beleuchtung gehen aus), 52-66 Watt (was immer M$ unter "idle" versteht).

Unter dem Linux Desktop muss ich die Beleuchtung zwar manuell ausschalten, aber der Strommesser geht von 38.4 Watt (Desktop) zurück auf 26.7 Watt (seid BIOS F25).

Man kann also schön sehen, dass die von AMD geplanten Energiesparen Einstellungen auch ohne die Adrenaline Software läuft.
(Unter Linux lässt sich nur sehr umständlich etwas, mit den Power Management Einstellungen der Grafikkarte etwas ändern, aber für gewöhnlich sind die immer alle an.)

Meine Bildschirmauflösung ist 2560x1440 bei 75Hz auf 27".

Mein Fazit, ja, die neue RX 7600 ist noch energiesparender, als der Vorgänger, die RX 6600, bei gleichzeitiger Leistungssteigerung.
 
  • Gefällt mir
Reaktionen: pacifico
Nixdorf schrieb:
NVIDIAs G-SYNC hingegen ist eine proprietäre VRR-Technologie, die zumindest ursprünglich nicht dem VESA-Standard entsprach und mit spezifischen Hardware-Modulen im Monitor umgesetzt wird.
Moderne G-Sync Ultimate Monitore können auch Adaptive Sync mit ihren vollen Fähigkeiten. Ich vermute dass NVidia auch heimlich intern auf Adaptive Sync umgestellt hat. Aber schwer zu sagen, könnte auch einfach nur zusätzlich sein (hat aber die exakt gleichen Features). Könnte auch für nicht-Ultimate Modelle gelten, wenn das Modul neu genug ist...
 
Hallo, ich habe den Asus PG 279Q 144 GSync und ab heute eine 6700 XT, bin neu bei AMD, was muss ich einstellen, dass ich niedrigen Idlestrom bekomme? (im Treiber und in Win11 was einstellen)

Und kann/muss ich im Treiber bzgl. Sync iwas einstellen?

Danke
 
Zuletzt bearbeitet von einem Moderator:
C.J. schrieb:
Ich kann es leider nicht testen, aber angeblich beherrschen AM5-Systeme das Feature, dass man für den 2D-Betrieb ausschließlich die iGPU benutzt und nur in Spielen auf die dGPU wechselt.
Das ist ein Standard Windows Feature und geht wunderbar mit Intel + Nvidia, habe ich hier am laufen weil die Intel iGPU mein 3-Monitor Setup mit < 1W im Idle antreiben kann, wärend die 3090 knapp 100W dafür braucht (bevor ich einen Monitor auf 4K upgegraded hatte waren es nur 35-47W).
C.J. schrieb:
Klappt das Umschalten zuverlässlich oder hängt man in Spielen manchmal mit 5fps an der iGPU bzw. nach dem Spielen wieder mit 100W auf dem Desktop, weil nicht zurückgeschaltet wird?
Die GPU wird nicht gewechselt. Die GPU an der der Monitor hängt ist für die Ausgabe verantwortlich. Alles was Windows macht ist eine andere GPU die Frames berechnen lassen und die dann über PCIe zur anderen GPU zu schaffen. Wenn das Spiel nicht Windows' Angabe welche GPU zu verwenden ist (die du manuell ändern kannst) ignoriert, klappt das Wunderbar. Wenn keine App läuft die auf die dGPU festgelegt wurde, nutzt nichts mehr die dGPU. Wobei im Desktop im Gegensatz zu Notebooks die dGPU nicht komplett auf 0W ausgehen. Meine 3090 bleibt dann zB immer noch bei ~10W obwohl sie rein gar nichts macht.

Diese PCIe-Transfers erklären auch FPS Verluste und zusätzliche Latenz. Wobei die Latenz absolut vernachlässigbar ist. Und die FPS Verluste hängen sehr stark daran wie viel PCIe-Bandbreite denn für diese Transfers benötigt werden und wie viel noch für das Spiel übrig bleibt. In Desktops mit x16 Gen 4 kaum ein Problem. Je langsamer der PCIe desto problematischer. Krasses Beispiel hierfür sind ja TB-eGPUs mit max. x4 Gen 3.
Aber natürlich können manche Spiele Bugs haben weil eine andere GPU als die normale für Berechnungen für die Synchronisation etc. verantwortlich ist. Aber da das in Notebooks durchaus häufiger der Fall ist, ist sowas selten.

Auch ein Performance-Faktor ist natürlich RAM-Bandbreite. Mit Aida64 Mem-Bandwidth Test kannst du sehen, dass mein 3-Monitor Setup die verfügbare Speicherbandbreite von ~72GB/s auf ~61GB/s reduziert gegenüber nur dem einen Hauptmonitor auf 60 Hz. Diese zusätzliche Belastung vom Memory Controller kann natürlich auch Performance kosten. Je mehr Bandbreite du hast, desto weniger wird sich das Auswirken.
 
Sky_Sk4p3r schrieb:
Hab am Board 1x DP und 1x HDMI.
Und genau deshalb war ich gegen die AM4 Platform. Weil es da kaum iGPUs gab und die ganzen Hersteller haben sich angewöhnt kaum oder nur lahme display ports zu verbauen.

Mittlerweile sind Intel Boards aber eher das Problemkind. Da sind die DP Ports häufig auf lahme Geschwindigkeiten gedrosselt (das Board verbaut nicht die notwendigen Komponenten für max. Geschwindigkeit die die iGPU kann) ohne dass das einfach zu erkennen wäre. Hier müssten die Hersteller endlich zu ehrlichen Specs gezwungen werden.

Da gibt es bei AM5 mittlerweile mehr Boards mit 3 oder 4 Display Outputs und auch 2 DPs mit HBR3 Geschwindigkeiten. Bei Intel geht das aktuell leider am besten wenn man Boards mit TB4 kauft, da MUSS dann die volle Geschwindigkeit geleistet werden (natürlich darf man kein Board nehmen, dass nur DP-ins hat und ohne extern angeschlossene dGPU gar kein Bild aus den TB4 Ports liefert).
Eigentlich richtig traurig vor dem Hintergrund das Intel 5 DP Ports in HW hat von denen max. 4 gleichzeitig laufen können. Und dann haben viele Board nur einen einzigen lahmen Ausgang.
 
Zuletzt bearbeitet von einem Moderator:
Sky_Sk4p3r schrieb:
Alles an Frequenzen probiert was ging, bin bei keinem Szenario unter 70W Idle gekommen.
Auch bei2x60Hz?
Das wär ja so das geringste was da so möglich sein sollte. Wenn das aber auch 70+ gibt, dann hast du mit deiner Lösung schon das Optimum. Dann wird es wohl, wie bei CB in den bisherigen tests, an einem Monitor liegen, der das hochzieht.
 
Casillas schrieb:
Was ja im Umkehrschluss bedeuten sollte, dass man möglichst auf Displayport setzen sollte, oder?
Zwischen PC und Monitor ja. Beim Anschluss des Rechners an einen TV hat man aber keine Wahl, denn die haben nur HDMI.

Ray519 schrieb:
Moderne G-Sync Ultimate Monitore können auch Adaptive Sync mit ihren vollen Fähigkeiten.
Deswegen steht da auch das "zumindest ursprünglich". Die frühen Modelle waren dann nicht mit Adaptive Sync kompatibel, und das sind die Geräte, die nun an einer Radeon technisch nicht anders laufen als solche, die gar kein VRR können.
 
  • Gefällt mir
Reaktionen: Ray519
Ray519 schrieb:
.... Wobei im Desktop im Gegensatz zu Notebooks die dGPU nicht komplett auf 0W ausgehen. Meine 3090 bleibt dann zB immer noch bei ~10W obwohl sie rein gar nichts macht.
...

super, danke für die info dass die RTX 3090 auf 10Watt geht bei desktop über iGPU. Alle infos die ich zur 3090 gefunden habe sprechen immer von 30-50, wobei mir shcon klar war dass das 2D Betrieb meint.

spiele seit längerem mit dem gedanken meine 1080TI durch eine gebrauchte 3090 für 600€ zu ersetzen.
 
gabbaklaus schrieb:
super, danke für die info dass die RTX 3090 auf 10Watt geht bei desktop über iGPU. Alle infos die ich zur 3090 gefunden habe sprechen immer von 30-50
Bei allen Tests zu Grafikkarten wird ja der Monitor auch immer an dieser angeschlossen. Man will ja schließlich die Karte testen.

Das Hybrid-Feature von Windows im Zusammenhang mit Desktop-Grafikkarten wird von den Publikationen im Netz sehr stiefmütterlich behandelt. Planet 3DNow hat es sich vor einiger Zeit auf AM5 wegen der bei Ryzen 7000 eingeführten iGPUs bei regulären Prozessoren mal genauer angesehen, und auch die Einsparungen ermittelt. Ansonsten ist davon fast nur im Zusammenhang mit Notebook-Grafikchips die Rede. Dort ist völlig klar, dass man die dedizierte Grafik tunlichst im Desktop-Betrieb abschaltet, um die Akkulaufzeit zu erhöhen.
 
Nixdorf schrieb:
Deswegen steht da auch das "zumindest ursprünglich"
Ja, war nicht als Widerspruch meinerseits gedacht.
Nur eine Ergänzung mit einem Begriff bei dem man zuverlässig weiß, dass sie das können. Nvidia gibt sich keine Mühe das allgemein klar zu stellen. Aber G-Sync Ultimite ist wenigstens neu genug, dass die das können.
Ergänzung ()

gabbaklaus schrieb:
super, danke für die info dass die RTX 3090 auf 10Watt geht bei desktop über iGPU
Das ist komplett ohne PCIe ASPM. Weil wenn ich das auf dem Asus Board anschalte kriege ich Bluescreens. Ansonsten würde ich erwarten, dass PCIe Sparmechanismen gerade bei ungenutzten GPUs noch eine Stufe mehr Strom sparen können und dass das auch ein Teil von dem ist was Notebooks mehr machen.
 
Zuletzt bearbeitet:
Sie is gekommen. Bezug nehmend auf #164

5 Watt im Idle bei 144 Hz. Das find ich stark.
 
Bei mir ändert sich leider garnichts...

7900 xtx Red Devil @144Hz 34 Zoll Dell S3422DWG

Woran kann es wohl liegen? Treiber + Windows sind aktuell, aber meine Karte zieht durchgängig 98 Watt.
 
Ich habe es mit CRU in den Griff bekommen. Ich habe einen LG 4k (60 Hz) und einen Eizo 1920x1200 (60 Hz) an einer 7900XT. Wenn beide Bildschirme an sind, kann ich machen was ich will, die Karte zieht knapp 80 W!
Dann habe ich mit der Software CRU bei beiden Monitoren das Blanking "vertical" erhöht. Beim Eizo von 35 auf 40 und beim LG von 60 auf etwa 70. Schwups: Idle mit 8 W! Wenn ich Browser offen habe, geht's mal kurz zwischen 20 W und 50 W hoch.

Das muss AMD doch mit einem Treiber in den Griff bekommen, wenn es über so ein Tool geht.
 
  • Gefällt mir
Reaktionen: Nixdorf und Qyxes
Tozan schrieb:
Das muss AMD doch mit einem Treiber in den Griff bekommen, wenn es über so ein Tool geht.
Das ist eine gute Frage. Denn was du mit CRU machst ist den Monitor außerhalb seiner Spezifikationen zu betreiben. Das könnte für den Monitor unter umständen wie übertakten sein. Genau das wird AMD höchstwahrscheinlich nicht automatisch mit dem Treiber machen wollen, weil für irgendeinen Monitor macht das mit Sicherheit Probleme.

Mehr eine Frage ob AMD noch Zwischenstufen hätte anstatt so einen riesen Sprung im Verbrauch zu machen.
 
Ja, wenn ich den Wert deutlich zu hoch wähle, dann zeigt der Monitor an, dass das Signal außerhalb der Spezifikation ist. Und es bringt nichts im Verbrauch. Ich muss nur etwas mehr Blanking geben und der Verbrauch sinkt massiv. Laut CRU steigt die Pixel Clock von 154,87 MHz auf 155,5 MHz. bzw. von 532 MHz auf 535 MHz (4k). Das ist wohl verkraftbar. ;)

Worauf ich aber eigentlich raus will ist, dass es also möglich ist, die Radeons massiv im Verbrauch zu senken. Das sollte auch ohne Eingriff in das Blanking gehen. Irgendwas scheint den Treiber/die Hardware zu triggern, den VRAM hoch zu takten. Mit dem wirklich sehr kleinen Eingriff (es ist ja nicht mal 1% Abweichung auf den Pixeltakt gesehen) passiert genau das nicht mehr. Technisch geht es also. Warum nur standardmäßig nicht?
 
  • Gefällt mir
Reaktionen: Qyxes
Zurück
Oben