Radeon 6xxx Serie - RAM Takt - Video-Wiedergabe

Dr@gonXP

Lieutenant
Registriert
Nov. 2001
Beiträge
728
Hallo Zusammen,

es ist ja bekannt, dass die Radeon Karten derv 6xxx Serie dazu neigen bei Video Wiedergabe den RAM Takt bis max. laufen zu lassen (auch bei nur einem Monitor) und ich wollte mal in Eahrung bringen, ob und wie das Problem behoben werden kann (in meinem Fall Asrock Radeon 6800), ist das, das einzige "Haar in der Suppe" bei der Karte.

In meinem Fall verwende ich einen 27" WHQD Monitor (per HDMI angeschlossen) und auf 144 Hz.

Ich habe versucht, die Hardwarebeschleunigung im Browser zu deaktivieren, dass ist der RAM "nur" bis 900 Mhz raufgegangen.
Den Treiber, den ich verwendet habe ist der aktuelle 22.11.2 WHQL.

Wie sind Eure Erkenntnisse (ggf. Lösungen) zu diesem Problem?

MfG
 
"Problem" ist relativ. "Lösungen" müsste AMD liefern. Dieses Verhalten ist bekannt und entsprechend weiß man vorher, was man erwarten kann.
Insofern: Wenn es stört, gar nicht erst AMD kaufen.

Für meine 6750 XT - mit deaktivierter HW-Beschleunigung in Edge:

Unbenannt.png


Der Stromverbrauch springt halt regelmäßig von typischen Idle-8W und etwas mehr Last (bis zu 18W) je nach Szene hin und her. Dann geht der VRAM-Takt halt auf die von dir erwähnten 900 Mhz.
Wobei überwiegend ein niedriger Takt anliegt.
 
Zuletzt bearbeitet:
Natürlich war mir das vorher bewusst, aber ich denke eine Lösung zu suchen ist durchaus eine sinnvolle Sache (anstatt es hinzunehmen).

@kachiri Danke für die Bestätigung, ist bekannt, ob es sich mit verschiedenen Treiber-Versionen anders verhält? Das wäre mein nächster Ansatzpunkt.

@Drewkev Danke, aber nicht hilfreich oder sinnvoll.
 
Nein. AMD hat mit den letzten Treiberversionen ja schon (versucht) nachzubessern. Vorher sind die RDNA2-Karten ja gerne auf den maximalen VRAM-Takt hoch.
Insofern..
Als Nutzer hast du kaum bis keine Möglichkeiten. Entweder AMD bekommt das in den Griff - was ich persönlich nicht mehr glaube oder aber muss halt mit leben ^^"
Und wenn ich mir den Test der 7900 XT(X) ansehe, dann dürfte das auch bei RDNA3 noch ein (schlimmeres) Thema sein.

Ansonsten: Neben HW-Beschleunigung aus, hilft es, Freesync zu aktivieren. Dann ist auch das "Problem" adressiert, was up.whatever anspricht.
 
  • Gefällt mir
Reaktionen: MaxO
Dr@gonXP schrieb:
In meinem Fall verwende ich einen 27" WHQD Monitor (per HDMI angeschlossen) und auf 144 Hz.
Tritt das Problem auch bei 60 Hz auf? RDNA2 benutzt die blanking Intervalle zum heruntertakten, ist die Bildfrequenz zu hoch bleibt keine Zeit zum stromsparen.
Bei YouTube Videos mit 30 oder maximal 60 fps bringen 144 Hz sowieso keinen Vorteil.
 
  • Gefällt mir
Reaktionen: Alexander2
Ich werde heute Abend verschiedene Frequenzen testen und auch ob Freesync einen Unterschied macht.
 
Meine 2080ti hängt auch bei nachzu vollem Takt mit 4k 120Hz + einem TV der selten läuft mit 1080p 60hz, was kauft man den dann wenn AMD es nicht kann und Nvidia auch nicht ?
 
Intel? ^^
 
  • Gefällt mir
Reaktionen: Aslo
für nvidia gibts jedoch den nvidia inspector

bei dem man einstellen kann, dass die gpu bei unter 3D anwendung nicht hochtakten soll

das tool gibts für amd leider nicht

bzw. es wäre ja nicht schlimm, wenn die karte nicht komplett runtertaktet, solange sie nicht wärmer wird.
 
kachiri schrieb:
Nein. AMD hat mit den letzten Treiberversionen ja schon (versucht) nachzubessern. Vorher sind die RDNA2-Karten ja gerne auf den maximalen VRAM-Takt hoch.
Insofern..
Als Nutzer hast du kaum bis keine Möglichkeiten. Entweder AMD bekommt das in den Griff - was ich persönlich nicht mehr glaube oder aber muss halt mit leben ^^"

Ansonsten: Neben HW-Beschleunigung aus, hilft es, Freesync zu aktivieren. Dann ist auch das "Problem" adressiert, was up.whatever anspricht.

Mit dem Status quo des aktuellen WHQL Treibers kann ich leben. Ob da möglicherweise noch viel weiter
verbessert wird, was dieses Problem adressiert, wage ich auch bei künftigen Treibern zu bezweifeln.

AMD FreeSync bzw. AMD FreeSync Premium Pro sind auf meinen beiden Monitoren aktiviert, mehr kann
man halt nicht machen. Ob man die Hardwarebeschleunigung nun noch zusätzlich deaktiviert, das ist
jedem selbst überlassen.
 
Der Takt ist letzenendes nur ein nebeneffekt, damit die Karte die arbeit die ansteht flüssig bewältigen kann. Mag sein, das man da noch optimieren kann.
Interessanter finde ich da dann den verbrauch der da ansteht. Das könnte man dann auch mit verschiedenen Hz Zahlen und Hardwaredecodierung an/aus gegenchecken. Und dann lass doch die Karte takten wie sie will, wenn der verbrauch trotzdem "stimmen" sollte.

Halt im erwartbaren Rahmen.

Edit: Es ist einfach so, das wenn man die Hardware mit entsprechenden Monitoren - hoher Auflösung und Hz Zahl die auch ensprechend reagiert, am meisten würde man mit einem Laptop sparen. Die Laptops sind ja in sich typischerweise dann auch darauf optimiert, beim Desktop macht doch wegen 10w keiner nen Finger Krumm.
 
  • Gefällt mir
Reaktionen: MaxO
MaxO schrieb:
Ob man die Hardwarebeschleunigung nun noch zusätzlich deaktiviert, das ist
jedem selbst überlassen.
Wobei das Abschalten der Hardwarebeschleunigung doch letztendlich auch ein Nullsummenspiel ist. Damit verlagert man die Last bei der Videowiedergabe doch einfach nur von der GPU auf die CPU und letzterer ist beim softwarebasierten Videodecoding unter Umständen sogar ineffizienter als der Hardwaredecoder der GPU.

Habe es gerade mal verglichen bei meinem System (Ryzen 7 5700X + RX 6750 XT + 2 Monitore mit 1440p@60Hz und 1080p@60Hz) und einem Twitch-Stream in 1080p angucken.
  • Chrome mit Hardwarebeschleunigung: GPU 11-12W / CPU 12-14W
  • Chrome ohne Hardwarebeschleunigung: GPU 9W / CPU 21-24W
Ohne Hardwarebeschleunigung ist der Verbrauch in Summe also 7W höher.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: whtjimbo, Dr@gonXP, NerdmitHerz und eine weitere Person
mibbio schrieb:
Umständen sogar ineffizienter
Das ist ja auch mittlerweile die Frage, wenn die Karte halt dem Vram Hochtaktet (mehr als ohne Decodierung) spielt der auch eine entscheidende Rolle in der Rechnung. beim VRAM und wenn die CPU (ne Moderne) 1-2 Kerne etwas auslastet zum decodieren geht es um ein paar w, nicht mehrere zig w sondern ich schätze tendenziell einstellig. Könnte man aber ja für seine Kiste einfach checken.
Wenn man da mal einfach ne Milchmädchenrechnung anstellt, 3900X mit 12 Kernen (24HT) hat ne TDP um 105w, so extrem aufwändig ist decodieren von einem Video für ne CPU heute auch nicht mehr. Arbeit klar, aber die schaffen das schon. also 105/12 macht auch nur 8,75w.

Ok, vielleicht wird der verbrauch zum decodieren dann 2 stellig (oberhalb vom absoluten idle). Und merke, das ist nur ne Milchmädchenrechnung, da spielt so viel rein, das kann garnicht so hinkommen. und trotzdem ist es ne grobe richtschnur.
 
Ich habe bei mir die HW-Decoding aktuell auch eher testweise aus, weil ich zuletzt immer wieder Probleme mit Blackscreens im "Desktopbetrieb" mit meiner RX 6750 XT hatte und der Treiber nach einem Neustart quasi tot war und neu installiert werden musste.
Ein Lösungsansatz war, hier das HW-Decoding in bestimmten Anwendungen zu deaktivieren.
Bisher lupft das. Ein stabiles System tausche ich gerne gegen ein paar Watt mehr...

Insofern: Einfach keine Gedanken machen und wenn einem das doch wichtig ist, dann vielleicht eher vor der GPU-Wahl darüber nachdenken. Aber letztlich betrifft so ein Verhalten durchaus auch NV.

Und ein 4K HDR HFR Stream braucht dann halt doch einfach auch bisschen Rechenleistung ist eben kein "Idle Task" ;D
 
  • Gefällt mir
Reaktionen: NerdmitHerz
Zumindest unter Linux ist bei mir mpv mit Softwaredecoding auf das Gesamtsystem an der Steckdose bezogen 10-20 Watt sparsamer als mit Hardwaredecoding.
Das mag auch mit der Nutzung der Shader für hochwertige Skalierung zusammenhängen, jedenfalls sorgt die Nutzung von Hardwaredecoding in dieser Konfiguration letztendlich dafür, dass die Karte hochtaktet und das Gesamtsystem mehr Strom zieht als wenn die CPU das Decoding nebenbei erledigt.
 
Also, ich habe jetzt verschiedene Browser getestet, verschiedene Media Player, Free Sync an/aus und verschiedene Bildwiederholfrequenzen (von 60-144 Hz) und alles führte zum gleichen Ergebnis. Ich glaube fast nicht dran, aber da ist AMD gefordert, um dem Verbrauch zu senken.
 
mibbio schrieb:
Habe es gerade mal verglichen bei meinem System (Ryzen 7 5700X + RX 6750 XT + 2 Monitore mit 1440p@60Hz und 1080p@60Hz) und einem Twitch-Stream in 1080p angucken.

Ohne Hardwarebeschleunigung ist der Verbrauch in Summe also 7W höher.
Kann ähnliches bei einem Intel 12900k + 6900XT bestätigen:
Ohne HW Beschleunigung ist der Gesamtverbrauch bei Youtube an der Steckdose gemessen mindestens genauso hoch. Teilweise ist die Messung jedoch von der Netzwerkkarte beeinflusst, da insb. bei einem (Teil)Download eines Videos, wenn der Cache nicht gefüllt ist, der Verbrauch stark nach oben schwankt in beiden Fällen.
 
Zurück
Oben