Test GPU-Leistungsaufnahme: Auch Radeon kann auf dem Windows-Desktop sparsam sein

Mircosfot schrieb:
Anhang anzeigen 1381435
Habe diese Option erst gar nicht :D
Aber mit meiner 6800XT 60Hz habe ich aber weniger verbrauch:
Anhang anzeigen 1381437
bei 144Hz sind´s wieder erheblich mehr, fast 40W :-(
Nutze mal den Workaround mit CRU oder Custom Resolution in der Adrenalin Software.
Ergänzung ()

Ayo34 schrieb:
Mein Gefühl ist, AMD versteht ihren eigenen Treiber nicht...
Schaut man sich die Bug und Probleme der Nvidia Treiber alleine 2023 an, hat Nvidia hier wohl auch technische Verständnisprobleme nach deiner Aussage.
Ergänzung ()

Highlander87 schrieb:
jaja kann was wer aber. Das sollte von Haus aus funktionieren ohne selber Hand anlegen zu müssen. Was für eine Farce.
Ist ja nicht so als ob AMD hier der einzige Hersteller ist, mit solchen Problemen. Bei Intel musst du für einen guten Idle Stromverbrauch auch einen offiziellen Workaround abarbeiten. Bei Nvidia GPUs mit hohem Idleverbrauch muss man ein externes Tool aus 2011 nutzen, mit dem "NVIDIA Inspector mit dem Multi Display Power Saver" um das zu fixen.

Es hängt eben immer stark von der individuellen Monitorkonfiguration ab und ist kein Hersteller only Problem.
Ergänzung ()

Piak schrieb:
Spannend, dass im AMD Lager sich Strommessungen verbessern und vor allem bei Intel und Nvidia mit dem neuem Equipment (dass das alte NVIDIA Equipment ersetzt), Stromverbräuche teils drastisch nach oben korrigieren..
Deshalb ist Nvidia PCAT auch nicht mehr empfehlenswert für solche Messungen.
Ergänzung ()

rentex schrieb:
AMD und Treiber...leider so ne Geschichte💁‍♂️
Richtig es ist eine Geschichte. Mehr nämlich nicht. Eine Geschichte die Irgendwer mal angefangen hat zu erzählen und die ohne zu hinterfragen immer weiter erzählt wurde seit den Jahren wo Radeon Karten noch von ATI kamen. Und wie es so ist bei Geschichten und Überlieferungen dichtet jeder neue Erzähler gerne noch etwas hinzu.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Volvo480, eXe777, SweetOhm und 8 andere
Banned schrieb:
Ein Produkt mit solchen Verbrauchswerten bei quasi keiner Last darf mMn erst gar nicht auf den Markt kommen oder sowas müsste aus Verbraucherschutz-Sicht untersagt sein, wenn es dem Nutzer beim Kauf nicht offen kommuniziert wird. Jeder Kühlschrank hat ein Energielabel, aber bei GPUs ist es völlig egal.
Das müsste man dann aber auf VRAM auch übertragen, wenn Karten mit so wenig VRAM aus gestattet sind das sie in 1-2 Jahren Sondermüll werden ist das auch nicht ökologisch (Nvidia).
Ergänzung ()

Capet schrieb:
So sehr ich damals auch dem RDNA3-Release entgegen gefiebert habe und auch den Live-Stream der Präsentation angeschaut habe, so sehr bin ich doch froh, dass ich mich letztlich nicht für eine AMD-Karte entschieden habe.
Das kommt doch sehr drauf an, wann man was zu welchem Preis gekauft hat, die 6xxx Gen war schon damals deutlich billiger per Frame als alles neue von Nvidia, klar wenn man 4090er Leistung braucht kommt man nicht um Nvidia herum wobei jeh nach Spiel gerade bei Spielen AMD da gar nicht weit weg ist. Bei Anwendungen siehts teils noch anders aus.

Die 7900XTX ist grad 200 Euro billiger als die 4080 da musste lange zocken oder PC benutzen um das an der Stromrechnung drauf zu zahlen. Und es gab ja immer schon klare Workarounds. Die 7900XTX ist aber meiner Ansicht nach die deutlich bessere Karte auch wenn die 4080 hier und da in paar RT Benchmarks noch Punkte macht, die 16gb VRAM werden in UHD und max settings sicher in vielen Titeln auch schnell voll laufen. Reichen ja grad noch so knapp für Hogwards Legacy FSR3 wird auch noch kommen zugegeben später als mir lieb ist, aber es wird kommen.

Dann ist das hier wenn das zu irgendwas führt noch mal ein Kostenloser Gaul obendrauf.

Man hat ja nicht bei AMD und Nvidia für X Dollar gleich viel Hardware bekommen man hat klar mehr bekommen von AMD (Spieler), auch gerade in letzter Zeit mit den 6xxx Gen Karten die waren Preis/Leistungskiller und 7700 / 7800 Karten könnten da auch relativ gut wirken nicht mal so sehr im Vergleich zum Vorgänger, aber zu Nvidia halt :) Das wird die 12gb Rohrkrepierer 4070er Gen einstampfen mit der Rocketsciencetechnik da man mehr VRAM verbaut (mal auf der 7800), und die andere eben billiger ist als die 4070. Aber hier muss man Nvidia als einziges positiv lassen wie grottenschlecht die Angebote waren, sie waren schneller am Markt, wer keine Alt Gen kaufen wollte ums verrecken und nicht noch Monate warten musste in den verfaulten Nvidia Apfel beißen.

Aber ja lange rede kurzer Sinn man hatte geringere Anschaffungskosten bei AMD, daher gab es ja einen Ausgleich für den Stromverbrauch. Daher wäre wenn nichts passiert immer noch alles in Ordnung und das jetzt eben ein vielleicht unerwarteter Bonus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm, Rockstar85 und Anon-525334
Nixdorf schrieb:
Es schaltet sich automatisch an, wenn es erstmalig aktivierbar wird. Man muss es bewusst wieder deaktivieren.

Da ich bei jedem Treiberupdate eh einen Werksreset mache kann ich folgendes berichten:

Alter Monitor:
Viewsonic VX2758-2kp-mhd, laut Hersteller Freesync Premium -> bietet im AMD Treiber "Adaptive Sync" an, welches per Default immer OFF war. Super nervig.

Neuer Monitor:
Gigabyte M32U, laut Hersteller Freesync Premium Pro -> bietet im Treiber "Freesync Premium Pro" an, welches per Default immer ON ist.

Es scheint hier also vom Monitor/Hersteller abzuhängen ob VRR autoaktiv ist...

PS: RX 6900XT Referenzdesign
 
  • Gefällt mir
Reaktionen: SweetOhm, Rockstar85 und Nixdorf
Wobei man vielleicht fairerweise weder AMD noch Nvidia für das Treiberchaos das sie teilweise verursachen verantwortlich machen sollte..
Sondern Microsoft die munter im Hintergrund irgend n scheiß ändern
 
  • Gefällt mir
Reaktionen: SweetOhm und HierGibtsNichts
Mein Laptop braucht idle 15 Watt. Warum braucht ein PC so viel? Muß hier erst wieder die EU durchgreifen?
 
johnieboy schrieb:
Bei AMD muss man die Materie quasi studiert haben um ein befriedigendes Ergebnis zu bekommen
Würde ich jetzt nicht behaupten, die Funktion ist per Default aktiviert in Treiber, weshalb selbst Tante Erna (warum auch immer Tante Erna eine RDNA3 Grafikkarte und einen Bildschirm mit hoher Hertzrate hat) in den Genuss des niedrigeren Stromverbrauchs kommen dürfte ohne sich mit der Materie zu beschäftigen.
Wer sich mit der Materie Beschäftigt hat, sollte eigentlich keinen Grund haben die dynamischen Raten zu deaktivieren.

Danke für die aufschlussreiche Prüfung des Ganzen @Wolfgang
 
Macht bei mir keinen Unterschied, ob VRR an oder aus ist. Idle Verbrauch bleibt gleich niedrig seit letztem Treiberupdate.

lorpel schrieb:
Mein Laptop braucht idle 15 Watt. Warum braucht ein PC so viel? Muß hier erst wieder die EU durchgreifen?

Dein Laptop ist ja speziell für wenig Verbrauch optimiert und dafür hat er auch viel weniger Leistung, als die eines Desktop PCs. Ist wie der berühmte Äpfel/Birnen-Vergleich. Eigentlich eher Kokosnus versus Ananas...
 
  • Gefällt mir
Reaktionen: Rockstar85
Hatte der zweite Monitor ebenfalls VRR? Weil bei mir ist der Dual Monitor Betrieb ein gutes Stück höher (ca. 40W), obwohl ich als zweiten Monitor nur einen alten 1080p60 Monitor dran hab und kein UHD. Der erste hat 3440*1440 mit 144hz und VRR. Sogar wenn ich meinen Hauptmonitor auf 60hz zurückstelle bleiben die 40W.

Bei nur einem Monitor habe ich zwischen 8 und 12W Verbrauch, egal welcher.
 
Zuletzt bearbeitet:
lorpel schrieb:
Mein Laptop braucht idle 15 Watt. Warum braucht ein PC so viel? Muß hier erst wieder die EU durchgreifen?
Mein Smartphone braucht idle 2W, warum braucht ein Laptop so viel? Muss hier erst wieder die EU durchgreifen?

…andere Geräte, andere Verbräuche
 
  • Gefällt mir
Reaktionen: bad_sign, Veitograf und Crazy_Chris
lorpel schrieb:
Mein Laptop braucht idle 15 Watt. Warum braucht ein PC so viel? Muß hier erst wieder die EU durchgreifen?
Mein Steam Deck braucht idle inkl. Display 5 Watt; CPU/GPU zusammen unter 0,5 Watt.
Warum braucht dein Laptop so viel? Muss hier erst wieder die EU durchgreifen? :D
 
  • Gefällt mir
Reaktionen: SweetOhm und Veitograf
Meine Palit 4070 TI gamerock zieht im Idle 5 Watt wenn ich die RGB Beleuchtung ausschalte. Das sollte man auch berücksichtigen. Viele werden die RGB Beleuchtung auch aus haben.
 
Cohen schrieb:
Mein Steam Deck braucht idle inkl. Display 5 Watt; CPU/GPU zusammen unter 0,5 Watt.
Warum braucht dein Laptop so viel? Muss hier erst wieder die EU durchgreifen? :D

Die Nintendo Switch verbraucht beim Spielen gerade mal 6 Watt und nur 2 Watt im Idle und auch damit haben die meisten sehr viel Spaß und die Spiele sehen gut aus. Vielleicht Steam Deck verbieten?

Aber egal wie man es betrachtet. Dein Idle Verbrauch von 50 Watt bei einem PC müsste nicht sein und auch bei Games unter Volllast müsste es effizienter zugehen können.
 
Kann die Messungen vom Artikel bestätigen mit 79000XTX Pulse / Adrenalin 23.7.2 an Gigabyte 28U (4K). Guter Fund!
144Hz / VRR off => ~90Watt(!) desktop idle
120Hz / VRR off => ~50Watt desktop idle
60Hz / VRR off => ~11Watt desktop idle
120/144Hz / VRR on -> 13 Watt desktop idle / ~30 Watt beim GPU-z Fenster verschieben / Firefox mit animierter Bannerwerbung ~40Watt
(Stromverbauch via GPU-Z. VRR an/ausgeschaltet via Monitor-HUD. Variable Wiederholrate in Window-Einstellung aus. Fenster verschieben fühlt sich gleich flüssig an unabhängig von VRR)
 
  • Gefällt mir
Reaktionen: Volvo480
So, ich habe jetzt mal bei mir nachgemessen in
60Hz bin ich beim Bewegen des Fensters bei 9- 15 Watt,
bei Youtube von SD bis 1440 bei max 14 Watt meistens 11 Watt
(Aussschläge auf 20 Watt für 1 -2 Sekunden beim Einschalten)
und wenn nichts läuft bei 6 Watt.
gemesen mit dem Tool von AMD und mit dem 23.7.1.
Viele Grüße
PS: Alle Videos auf Youtube hatten den av01 Codec.
Graka 6900xt
Monitor Acer Nitro 144Hz WQHD IPS und gedrosslet auf 60Hz
 
Kurios und schön für alle RX-7000-Besitzer mit einem solchen Display. Leider ist VRR nur in den neusten und vermutlich auch höherpreisigen Monitoren zu finden, deswegen können nur die wenigsten Nutzer von diesem speziellen Umstand profitieren. Wenn man es aber nutzen kann, dann kann sich das Ergebnis sehen lassen! So sollte es aussehen.
 
CastorTransport schrieb:
Dein Laptop ist ja speziell für wenig Verbrauch optimiert und dafür hat er auch viel weniger Leistung, als die eines Desktop PCs. Ist wie der berühmte Äpfel/Birnen-Vergleich. Eigentlich eher Kokosnus versus Ananas...
Nein eigentlich war das eine berechtigte Frage ... wenn mein PC doof rumsteht und nichts macht oder ich eine Exceltabelle aufmache oder Inhalt auf einer Webseite anschaue (ohne blink-blink), kann man doch eigentlich einen ähnlichen Vergleich erwarten wie ein Laptop. Natürlich kommen beim PC noch entsprechende Komponenten dazu die natürlich alle den Stromverbrauch ggü. den Laptop hoch drücken (2. Datenträger, die ganzen MB-Funktionen die es in dem Umfang beim Laptop nicht gibt, dedizierter Grafik [wobei es hier ja zumindest theoretisch eine Möglichkeit gibt diese nur laufen zu lassen wenn es nötig ist] usw.) - aber am ende sollte alles was keine dedizierte GPU benötigt sondern auch von der CPU gemacht werden kann, entsprechend wenig Strom verbrauchen - wie beim Laptop. Natürlich brauch ich für computerbase.de keine 5Ghz und 8+8 Kerne etc. Alles was nicht benötigt wird, muss zuverlässig in Standby gefahren werden können....

Würde das daher schon begrüßen wenn die EU hier mal eingreifen würde - aber NUR wenn Leute vom Fach dabei sind so das man nicht mit irgendwelchen Fantasiewerten kommt, so das wir in 2 Jahren alle unsere Rasperrys nutzen müssen ;) ... von daher: nein EU finger weg! Dann lieber Krieg gegen die Umwelt! :)
 
und wie bekomme ich das hin das der Desktop die Refreshrate Reduziert?
VRR in Windows aktiviert.. Gsync auf Fenster+Vollbildmodus

in Spielen funktionierts problemlos
der Desktop ist auf die 165hz des Monitors festgetackert.. selbst wenn ich die Maus 2 Min nicht bewege

Ich dachte bisher das ganze wird von MPO geregelt
 
Wolfgang schrieb:
Doch anstatt 1xx Watt im „Leerlauf“ auf dem Desktop unter Ultra HD bei 144 Hz hat die Radeon RX 7900 XTX auf dem System plötzlich nur noch 24 Watt benötigt, weniger als ein Fünftel des bisherigen Messwerts.
Überprüft doch bitte mal, ob dabei überhaupt noch 144 Hz generiert und angezeigt werden, ich habe nämlich so die Vermutung, dass die plötzliche Ersparnis dadurch kommt, dass nur noch 60 fps generiert werden.
 
Ist es technisch vlt. so, dass die Karte ihren Framebuffer intern jetzt eben seltener aktualisiert aber das Ausgangssignal davon entkoppelt ist? So könnte die Karte Energie sparen, aber das Display (und Windows) sind der Meinung, dass VRR nicht zum Einsatz kommt. Denn der Weg von der Karte zum Display findet eben entkoppelt vom Framebuffer der GPU statt, und die Treiber-Einstellung legt nur die interne Nutzung von VRR fest, nicht die externe?
 
Zurück
Oben