Test GPU-Leistungsaufnahme: Auch Radeon kann auf dem Windows-Desktop sparsam sein

Hab mich mittlerweile damit abgefunden, dass meine 5700XT mit zwei Monitoren (144Hz) im Idle ~37W zieht.
Erst wenn ich nur einen Monitor mit <144Hz betreibe, geht der Speichertakt und damit auch der Verbrauch runter.
 
Spannend, dass im AMD Lager sich Strommessungen verbessern und vor allem bei Intel und Nvidia mit dem neuem Equipment (dass das alte NVIDIA Equipment ersetzt), Stromverbräuche teils drastisch nach oben korrigieren..
 
  • Gefällt mir
Reaktionen: ShiftyBro, Rockstar85, Horst_Koehler und 7 andere
VRR - FreeSync ist default an, sobald VRR (FreeSync) Monitor/e angeschlossen ist/sind. --Macht ja auch sinn so.
Das Radeon User mit FreeSync im Treiber auf an (default!) idR weniger Leistungsaufnahme haben ist aber doch wirklich schon länger bekant, trotzdem schön dass CB das mal so deutlich darstellt.
 
  • Gefällt mir
Reaktionen: CableGuy82, Epistolarius und Iscaran
Ich hab das mit meiner RX 6900 XT mal kurz durchgetestet. Monitor 1 3440x1440@175Hz mit HDR, Monitor 2 2560x1440@75Hz. Beide unterstützen Freesync.

Mit einem Monitor lande ich zwischen 18 und 20 Watt, mit zwei Monitoren bei 32 bis 33. Freesync an oder aus im Treiber und in Windows hat darauf keine sichtbare Auswirkung. Fenster verschieben bringt in beiden Fällen dann so 2 bis 3 Watt zusätzlich.
 
  • Gefällt mir
Reaktionen: Meines
Ein wichtiger Punkt ist aber auch das bei Teillast der Verbrauch beispielsweise einer 7900XTX deutlich vor einer 4080 liegt.
 
Wirklich neu sind die Erkenntnisse jetzt aber nicht. Ähnliches Verhalten hat selbst die 5700XT schon gezeigt.
 
Bei meiner RX 5700 XT in Verbindung mit dem LG 34GL750-B @ 2560x1080 ändert sich nichts mit/ohne VRR im OS/Monitor. Es bleibt bei ~9W GPU Chip Power Draw. Beim Fenster-Verschieben sind's ein paar Watt mehr.

Bin aber auch sowieso bei diesem Thema mit meiner Hardware-Konstellation nicht betroffen. ;)
 
till69 schrieb:
Gsync/Freesync geht dann nicht mehr
Sicher? Es gab doch sogar mal den Trick, dass man FreeSync auf Nvidia GPUs bekommen konnte, wenn man das Display-Signal über eine AMD-APU ausgegeben hat, weil diese (im Gegensatz zu Nvidia) sehr wohl FreeSync unterstützt hat.
 
  • Gefällt mir
Reaktionen: bad_sign und Rockstar85
Natürlich geht FreeSync mit der "AM5-iGPU", zudem kann sie Hybrid-Grafik, wo du den Monitor anschießt ist volkommen egal.
Unter Windows kann man dann festlegen ob Programm XYZ auf der iGPU oder der dGPU "läuft".
 
  • Gefällt mir
Reaktionen: Rockstar85
DeltaPee schrieb:
Naja, im nachhinein ist ja man immer schlauer... Wer hätte diese Kombi aus dem stegreif als Ursache vermutet, keiner bisher. Bis eine Redaktion das verhalten beobachtet....
Und das über 7 Monate nach Release der Karten...
Und warum zum Teufel, hat man bis jetzt zum Benchen keinen Monitor mit VRR genutzt? Auch wenn es keinen Einfluss auf die Ergebnisse hatte, sollte man aktuelles Equipment zum Benchen auf dieser Veröffentlichungsebene nutzen.
Am falschen Ende gespart?
 
  • Gefällt mir
Reaktionen: Astrogator, Rockstar85 und Cleanor
C.J. schrieb:
Sicher? Es gab doch sogar mal den Trick, dass man FreeSync auf Nvidia GPUs bekommen konnte, wenn man das Display-Signal über eine AMD-APU ausgegeben hat, weil diese (im Gegensatz zu Nvidia) sehr wohl FreeSync unterstützt hat.
Naja das muss aber schon verdammt lange her sein da Nvidia das auch seit 2019 unterstützt.
 
  • Gefällt mir
Reaktionen: nazfalas
Ich selber verwende einen 4K Monitor mit 60Hz und das schöne bei AMD ist das man für jedes Spiel ein Profile anlegen kann. Ich limierte immer die FPS auf 60 und drehe den GPU Takt um 10% runter und die Spannung auch etwa um 10% und dann benötige ich bei einige Spielen nur 45W bei meiner 6800XT MERC 319 Edition und dann kann bleibt die Lüfterdrehzahl bei ca. 750 U/min und ist somit nicht hörbar.
 
  • Gefällt mir
Reaktionen: Astrogator, EntelodonX, Aekoric und eine weitere Person
Crazy_Chris schrieb:
Naja das muss aber schon verdammt lange her sein da Nvidia das auch seit 2019 unterstützt.
Auf die schnelle habe ich das gefunden: https://www.reddit.com/r/Amd/comments/99yz9h/freesync_on_nvidia_1060_6gb_through_amd_apu/

2018, damals noch mit GTX1060 und einer Zen 1 (!) APU. Das Alter ist ja egal, denn wenn es damals schon ging, sollte es auch heute noch möglich sein. Bloß die Praxistauglichkeit müsste man testen, d.h. ob es Schwierigkeiten mit dem Umschalten gibt oder zwei, drei Frames zusätzlich gepuffert werden müssen (= miese Latenz).
till69 schrieb:
Ja, zumindest mit NVidia GPU + Intel iGPU


Es geht um Gsync/Freesync bei Anschluss an eine iGPU
Mir geht es spezifisch um AMD APUs iGPUs.
 
@Wolfgang

Könnt Ihr bitte ein (Standard) Linux in eure Vergleichswerte mit aufnehmen?

Wäre sehr interessant, wie es dort aussieht, im Besonderen die neuen offenen Radeon Treiber.

Als Linux User ist es immer frustrierend, diesbezüglich aussagekräftige Daten im Netz zu finden.
 
  • Gefällt mir
Reaktionen: GreenHeaven, CableGuy82, Kampfmoehre und 10 andere
Highlander87 schrieb:
jaja kann was wer aber. Das sollte von Haus aus funktionieren ohne selber Hand anlegen zu müssen. Was für eine Farce.

Sehe ich auch so. Vor allem geht ja keiner, wenn er sich so eine Karte kauft von so absurd hohem Verbrauch bei quasi Nichts aus.
Viele kaufen sich sicherlich so ne Karte, spielen damit, messen den Verbrauch nicht und treiben sich gar nicht auf Computerseiten rum. Die ahnen bis heute nicht, was ihre teure Grafikkarte sich da so genehmigt.

Ein Produkt mit solchen Verbrauchswerten bei quasi keiner Last darf mMn erst gar nicht auf den Markt kommen oder sowas müsste aus Verbraucherschutz-Sicht untersagt sein, wenn es dem Nutzer beim Kauf nicht offen kommuniziert wird. Jeder Kühlschrank hat ein Energielabel, aber bei GPUs ist es völlig egal. Das kann doch nicht sein. Ich fordere somit Energielabel für Computerhardware, die auch was aussagen, also nicht so wie der Energy Star.
 
  • Gefällt mir
Reaktionen: Astrogator, Sardok, Innocience und 2 andere
Mein Gefühl ist, AMD versteht ihren eigenen Treiber nicht...
 
Tanzmusikus schrieb:
Bei meiner RX 5700 XT in Verbindung mit dem LG 34GL750-B @ 2560x1080 ändert sich nichts mit/ohne VRR im OS/Monitor. Es bleibt bei ~9W GPU Chip Power Draw. Beim Fenster-Verschieben sind's ein paar Watt mehr.

Bin aber auch sowieso bei diesem Thema mit meiner Hardware-Konstellation nicht betroffen. ;)
Bei so niedrigen Werten sollte man auch nicht erwarten, dass sich da etwas tut, da scheint der Idle-Power-State ja auch schon zu funktionieren. Das ist eher was für hohe Auflösungen und hohe Bildwiederholfrequenzen.
xerox_ schrieb:
@Wolfgang

Könnt Ihr bitte ein (Standard) Linux in eure Vergleichswerte mit aufnehmen?

Wäre sehr interessant, wie es dort aussieht, im Besonderen die neuen offenen Radeon Treiber.

Als Linux User ist es immer frustrierend, diesbezüglich aussagekräftige Daten im Netz zu finden.
Das ist vielleicht für einen Sonderartikel interessant, aber nicht für ein dauerhaftes Testen bei neuen Produkten. Dafür ist das Interesse daran einfach nicht groß genug.
 
Zurück
Oben