Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGPU-Leistungsaufnahme: Auch Radeon kann auf dem Windows-Desktop sparsam sein
Das ist vielleicht für einen Sonderartikel interessant, aber nicht für ein dauerhaftes Testen bei neuen Produkten. Dafür ist das Interesse daran einfach nicht groß genug.
Kann ich nachvollziehen, aber irgendwie ist es auch ein Henne-Ei Problem, mehr fundierte Informationen zu solchen Themen könnte so manchen Benutzer dazu bewegen, über den Tellerrand zu schauen, da es unbegründete Befürchtungen entkräften könnte, oder auch nicht.
@ Computerbase
Schöner Test, bei soetwas, also im Leerlauf, würde ich es begrüßen wenn ihr Grafiklösungen aufnehmt die oft in diesem zustand sind, also integrierte Grafikeinheiten in CPUs wie zum Beispiel im Ryzen 5700G.
Ja genau - weil man ja so oft ein Fenster bewegt... Auf Arbeit ja - aber an meiner privaten Kiste kommt das sehr sehr selten vor... Da hättest dich lieber auf die Videoengine einschießen sollen.
Das ist so gesehen "schlimmer" im privaten Bereich... Bei mir geht es zum Glück bin kein YT dauer schauer wenn ein Game rennt...
Von daher - jetzt kann ich ja doch die 7900XTX ordern...
Ja genau - weil man ja so oft ein Fenster bewegt... Auf Arbeit ja - aber an meiner privaten Kiste kommt das sehr sehr selten vor... Da hättest dich lieber auf die Videoengine einschießen sollen.
Das ist so gesehen "schlimmer" im privaten Bereich... Bei mir geht es zum Glück bin kein YT dauer schauer wenn ein Game rennt...
Von daher - jetzt kann ich ja doch die 7900XTX ordern...
Ich halte es demnach für möglich, dass sich dieser Unterschied erst seit neueren Treiberversionen so ausdrückt und sogar ein (Windows-) Bug dafür verantwortlich ist, dass eine neue Treiberoptimierung nur unter diesen Umständen greift
Bei so niedrigen Werten sollte man auch nicht erwarten, dass sich da etwas tut, da scheint der Idle-Power-State ja auch schon zu funktionieren. Das ist eher was für hohe Auflösungen und hohe Bildwiederholfrequenzen.
Was mich aber noch immer schockiert ist ein deutlich höherer Verbrauch, sobald 2 Monitore verwendet werden. Unter dem Motto 2 Monitore, doppelter Verbrauch. Ist das eigentlich begründbar, abgesehen von; mehr Datenleitungen, mehr Strom?
Ich habe zwei 60Hz-Monitore (1x WQHD + 1x 1600x1200) an einer RX 6600 XT und kann 144Hz leider nicht testen. Aber ich schaffe es abseits von Gaming, Stable Diffusion o.ä. partout nicht, den Wattverbrauch zweistellig werden zu lassen.
Im Idle dümpelt sie mit beiden Monitoren bei 3-4W herum (Windows + Linux). Unter Linux grad getestet: Wenn ich ein Fenster manisch hin- und herbewege, geht der Verbrauch auf max. 5W.
Beim Abspielen von YT-Videos (WQHD@60fps) im Vollbild sind's 7-8W, wobei alle 350 Frames einer droppt.
Leider kenne ich auch niemanden in meiner Nähe, dessen 144Hz-Monitor ich testen könnte, würde ich zu gerne machen.
Schön zu lesen, dass ihr die Ursache des hohen Idle-Verbrauchs (etwas) auf eine Ursache zurückführen konntet. Das Verhältnis GPU-Leistung/Leistungsaufnahme ist für mich der maßgebliche Faktor in der Beurteilung einer Grafikkarte.
Wolfgang schrieb:
[Linux Benchmarks sind ...] vielleicht für einen Sonderartikel interessant, aber nicht für ein dauerhaftes Testen bei neuen Produkten. Dafür ist das Interesse daran einfach nicht groß genug.
Nachvollziehbar, ihr kennt die Metriken und seid mehr oder weniger gezwungen das ganze pragmatisch abzuwägen.
Als jemand der seine Windows-Kiste schon vor Längerem ins Nirvana geschickt hat freue ich mich auf den Tag, an dem ihr beschließt, dass der Schwellwert überschritten ist
Ich habe nur ein paar Tage eine rx 6700xt gehabt.
Totales Lottospiel.
Ich hab 1x WQHD mit 75Hz VRR und 1x 800x600 60Hz (Av-Receiver).
VRR aus und 60Hz -> 28W
Auf FHD umgestellt -> 7W
Wieder auf WQHD gestellt -> 7W
VRR und 75Hz aktiviert -> 28W
Auf FHD umgestellt -> 7W
Wieder auf WQHD gestellt -> 7W
Ich habe ein paar Reboots versucht, hat nichts geändert.
Augenscheinlich kommt es nicht nur darauf an was man einstellt sondern auch ob man was umstellt.
Und dann frage ich mich natürlich wie das ein Problem sein soll welches man nicht über den Treiber lösen kann.
Ich habe grade parallel 2 Fenster nebeneinander auf meinem 32:9 Bildschirm (3840x1080 bei 48 bis 144Hz Freesync) auf. Links CB, rechts das Radeon Tool. (edit: GPU ist 7900XT) Während ich hier grade tippe, sehe ich rechts Werte zwischen 16 und 24W bei der GPU. Bevor ich angefangen habe zu tippen sah es aus wie auf dem Screenshot hier:
Also 7W für die GPU. auf diese 7(bis 9) Watt fällt es auch recht zügig zurück wenn ich beim tippen pausiere.
Radeon-RX-Grafikkarten verbrauchen bei hohen Bildwiederholfrequenzen viel Strom auf dem Windows-Desktop, das gilt vor allem für Ultra HD mit 144 Hz und für RDNA 3. Doch das muss nicht unbedingt so sein, wie ComputerBase jetzt herausgefunden hat. Für den Artikel wurden sämtliche Idle-Messungen mit allen Grafikkarten neu erstellt.
Eventuell sind bereits erste Iterationen davon auch in den Windows Treiber eingeflossen ohne größere Dokumentation in den Releasenotes.
Nicht jede Änderung wird dort immer aufgeführt.
Egal welche Kombination an VRR Schalter bei mir in Windows und im Treiber an oder aus ist, die 100W Idle Verbrauch bleiben bei meiner 7900 XTX. 4K 120Hz HDR
6700 XT Undervolt - 23.7.2
2x Monitore in WQHD mit 144 Hz - iiyama GB2760QSU-B1
Idle und YouTube immer 28-31 Watt laut Adrenalin.
Keine Veränderung, wenn ich bei Windows die variablen Frames deaktiviere.
2x Monitore in WQHD mit 60 Hz - iiyama GB2760QSU-B1
Idle 4-5 Watt, ein fenster Öffnen 15 Watt laut Adrenalin.
Bei AMD muss man die Materie quasi studiert haben um ein befriedigendes Ergebnis zu bekommen während man bei Nvidia dafür schlicht überhaupt nichts machen muss.
Mit diesem subjektiven Eindruck liegt man nachweislich falsch. Denn auch Nvidia können davon betroffen, denn das ganze ist immer noch abhängig von der persönlichen Monitorkon.
Eine 4060 schafft es auch 52W im Idle zu verbrauchen bei einigen Tester.
Intels ARC ist ebenfalls ein Bsp dafür das dies kein AMD only Problem ist.
Eine 4070 an einem der neuen Oled Monitore angeschlossen in Verbindung mit einem alten TN 144hz schwups hast auch 40W+ im Idle.
Musste ich selber dieser Tage bei einem Bekannten händisch optimieren.