News AMD RDNA 2: Neue Treiber senken den Stromverbrauch auf YouTube

t3chn0 schrieb:
Bei mir hat das korrekte Heruntertakten erst mit Aktivierung von Freesync funktioniert.
Sobald das aus ist, blieb der Takt des VRAM hoch.
Macht bei meinem System 2560x1080x32bit @144Hz keinen Unterschied.
Hier wird stets im Idle runter getaktet.
 
@CB danke dass ihr dieses Thema verfolgt.
Genau dieser hohe Verbrauch der AMD Grafikkarten bei Dualmonitorbetrieb und YT Videos stört mich.
Mein Sohn hat einen 32" WQHD und 27" FHD auf dem nebenbei oft Youtube läuft bzw paisiert ist.

Frage mich auch, wie sich der 2ter Moni, auf dem YT geöffnet ist, aber nichts abspielt, auf die FPS/minFPS eines Spiels auswirkt das auf dem Hauptmonitor.
 
Willi-Fi schrieb:
Stell deinen Monitor oder Fernseher mal auf HDR und messe dann den Stromverbrauch.
Ist schon klar, dass im HDR-Betrieb die angeschlossenen HDR-Bildschirme mehr Strom verbrauchen.

Es geht hier bei HDR-Betrachtung nicht darum, wieviel die Monitore/TVs verbrauchen, sondern die Grafikkarte.
Und scheinbar ist da kaum eine große Mehrleistung (& dementsprechender Verbrauch) nötig.
 
Klasse, Computerbase! :)

Ich habe einen 144Hz WQHD Monitor in Verbindung mit einer 6900 XT und habe bislang immer 120Hz genutzt und nur für Spiele auf 144Hz umgestellt, damit der Speicher der Graka im Idle nicht unnötig hochtaktet. Das kann ich mir jetzt endlich sparen und dauerhaft 144Hz beibehalten - bereits ausprobiert, klappt einwandfrei.

Ohne Euren Artikel wäre mir das nicht aufgefallen. Vielen Dank dafür!
 
Teiby schrieb:
Ich hätte gern das Gegenteil bei Nvidia. Muss auf Höchstleistungen stellen, sonst gibt's Ruckler und Grafikfehler.
Hmm...hab da keinerlei Probleme mit der RTX 3070. Grad mal bei zwei Youtube Videos getestet.
 

Anhänge

  • Screenshot (209).png
    Screenshot (209).png
    2,3 MB · Aufrufe: 235
  • Screenshot (210).png
    Screenshot (210).png
    2,1 MB · Aufrufe: 234
Vielleicht hat der Treiber doch ein wenig gebracht.
Bei Netflix hab ich nun VRAM 200-600 Mhz und 16-21 Watt.
 
Moep89 schrieb:
Erst über 144 Hz WQHD hat der VRAM nicht mehr runtergetaktet.

könnte ich immer durchdrehen mit meinem 165 HZ Monitor und 5600 xt weil er es den oft nicht gewuppt kriegt sich passiv zu kühlen und aufheult alle paar Minuten. und aus irgend einem Grund lassen sich die Lüfter mit normalen Bios nur mit min 1000 Rpm dauerhaft befreiten. So eine harte fehlkonstruktion.
 
Floxxwhite schrieb:
könnte ich immer durchdrehen mit meinem 165 HZ Monitor und 5600 xt
Ich habe deshalb einfach die Übertaktung rausgenommen und bleibe bei 144 Hz. Spart Nerven und kostet quasi nichts. Die 21 Hz sind mir den Ärger nicht wert. Ich würde mir zwar wünschen, dass AMD und Nvidia es einfach mal gebacken bekommen und die Karten unabhängig von Auflösung und Refreshrate im Idle zu lassen, aber das ist anscheinend zu schwer für zwei große High-Tech Firmen.
 
  • Gefällt mir
Reaktionen: Floxxwhite
Ich habe das ganze bei mir schon vor einiger Zeit "gefixt" bekommen. - Zumindest bei Dual-Monitoring.

UWQHD 144 Hz + WQHD 60 Hz (eig. nen 144 Hz Monitor). Problem liegt nen Stück weit nicht nur bei AMD, sondern auch bei den Monitorherstellern. Wenn die sich nen feuchten Dreck an die Vesa-Timing Standards halten kann AMD da halt auch nur bedingt was für.


Ich bin mittels CRU jeweils in die Auflösungseinstellung gegangen und habe das Dropdown-Auswahlfeld oben von "Manuel" auf CVT-(RB)-Standard umgestellt, mit ok bestätigt.

Meinen UWQHD musste ich auf die CVT-RB-Standards stellen den WQHD konnte ich bei 60 Hz auf CVT-Standard packen.

restart64.exe -> Done -> VRAM taktet runter.
Wenn ich den Zweiten Bildschirm >60 Hz stelle taktet die Karte dann den VRAM nicht mehr runter. Aber das stört mich nicht. Auf dem Zweitpanel sitzt eh nur Discord oder nen Stream. Da brauch ich keine 144 Hz.


Ein höheren Verbrauch in Youtube im Vergleich zu meiner 1080 damals konnte ich aber nicht feststellen. Da liegen und lagen beide immer so ziemlich auf einem Niveau +/- ein bisschen.

Für das "VRAM-Problem", dass ich bei der 1080 ebenfalls hatte hab ich dann den Multi-Display-Power-Saver vom NVInspector genutzt.
 
Wolfgang schrieb:
Die sind drin, kannst du einfach ausklappen :)
Ich bin halt manchmal etwas.. dümmlich ;) Danke für den Hisweis.
 
Ich hatte gestern ein interessantes Phaenomen beobachtet.

Ich habe 2 WQHD 144Hz Monitore, aber schon laenger von 144 auf 120 runtergestellt, weil meine Amazon Basics Displayportkabel nicht ganz optimal sind und gelegendlich mal flackerten. Der Unterschied ist zu Minimal als das mich das storen wuerde.

Aber weil es mich interessierte, habe ich mal nach dem Treiberupdate genauer auf die Verbrauchswerte geschaut: Im Desktop zwischen 38 und 39 Watt. Auf 144 Hz gestellt: Kein unterschied.
Auf 60 Hz gestellt: Verbrauch runter auf unter 20 Watt, und der VRAM taktet deutlich runter.

Da habe ich mir ueberlegt: so wichtig sind mir die 144Hz nicht, also lass ich das erstmal einfach so. Die Maschine ist eh mehr im Desktop-, als im Gamesbetrieb, und 20 Watt weniger sind nicht zu verachten.

Aber kurz danach ist mir bei zumindest einem Spiel aufgefallen: Wenn ich auf dem zweiten Bildschirm ein Youtubevideo laufen habe, ruckelte das Spiel wie sau. Bei einem schnoeden 2D Spiel (wers wissen will: Max Gentlemen ;)). Desktopwiederholfrequenz wieder auf 120 Hz, und das Ruckeln hat aufgehoert.
 
Schön, wenn sich um so Dinge gekümmert wird.

Interessant wäre, wie andere schon schreiben, wie sieht es mit alten Karten aus?

Ansonsten ist da m.E..auch viel Willkür bei.
Ich habe damals ein wenig mit 470/480 und 570/580 rumgetestet.
Anderer Browser lieferte mitunter andere Ergebnisse. Oder andere Software eben so. Anderer Stream ( z.B. YouTube, TV-Livestream, Amazon Video,...)
Die RX5x0-Biosse haben eh eigentlich immer einen höheren Stromverbrauch als die RX4x0 angegeben, obwohl sie klar kühler blieben und sehr sicher tatsächlich weniger Strom verbraucht haben.

Mit einem neuen Monitor war es dann auch wieder ganz anders.
Eines ist m.E. relativ gesichert, eine Aussage "Kann nicht sein" würde ich bei diesem Thema, nur sehr vorsichtig verwenden.
Und irgendwo ist und bleibt es dann auch irgendwo Glückssache, finde es aber auch interessant, wie viele Workarounds (laut Kommentaren) im www rumgeistern.
So dass jemand der eine ungünstige Kombination nutzt noch einmal selbst Hand anlegen kann.
 
Die Leistungsaufnahmen auf dem Desktop in Dual-Monitor Betrieb finde ich bei den AMD Karten gerade ziemlich sportlich. Meine GTX 1080 Ti läuft mit zwei UHD Monitoren und einem FHD Monitor im Idle bei 25-30W. Ein YouTube Video führt da nur kurz zu einem Peak auf maximal 65W. Bei 30-35W Pendelt es sich dann wieder ein.
 
ich hätte auch einmal gerne gesehen, dass die Grafikkarten im 3 - oder 4- Monitorbetrieb weniger verbrauchen. Meine GTX980Ti säuft 40W mit 2 Monitoren statt 20W mit nur einem. Und bei 3 Monitoren steigt die Leistungsaufnahme auf 75W...
Die neuen Generationen sind da leider nicht besser...
 
Zurück
Oben