Mehrere Probleme mit RX 570 und BenQ EW3270

Ic3cube3

Lieutenant
Registriert
Apr. 2018
Beiträge
691
Hallo liebe AMD-Experten,

nachdem ich es gestern endlich geschafft habe, beide BIOS-Optionen meiner Sapphire Nitro+ RX 570 8GB verwenden zu können, stellt sich mir direkt eine ganze Reihe von neuen Problemen, die vor allem auch das Zusammenspiel mit meinem Monitor (BenQ EW3270U) betreffen. Diese würde ich gerne alle hier in diesem Thread bündeln, damit das ganze (auch für Leute, die später ähnliche Probleme mit dieser Kombination haben) übersichtlicher wird.

1. Ich kann im Radeon-Treiber als Farbtiefe zwar 10 Bit (RGB 4:4:4) einstellen, die Einstellung springt aber dirket wieder auf 8 Bit zurück, obwohl mein Monitor eigentlich 10 Bit unterstützt und dieser mit einem DisplayPort-Kabel (1.4) von Lindy mit meiner GPU verbunden ist, das diese Einstellungen eigentlich ebenfalls beherrschen sollte. Wenn ich das Pixelformat auf 4:2:2 (YCbCr) ändere, sind zwar 10 Bit dauerhaft möglich, vor allem Schrift und andere feine Konturen sehen dann aber grässlich aus. In meinen Einstellungen sieht es momentan folgendermaßen aus:

AMD Treiber.JPG


AMD Treiber 2.JPG


Schließt man stattdessen ein HDMI-Kabel (2.0) an, verschwindet die Option für 10 Bit bereits aus der Liste der auswählbaren Farbtiefen. Hier kann man von vorneherein bei RGB 4:4:4 nur 8 Bit auswählen.


2. Die Grafikkarte ist undervolted und der maximale Takt von mir auf 1210 MHz beschränkt. Unter Volllaust braucht die Karte so ca. 80W, was ich sehr angenehm finde. Allerdings ist der Idle-Verbrauch (ein 4K-Monitor, 0% Auslastung, 300 MHz Core/Memory) mit ca. 33-38W und einer Temperatur von 37-39 Grad unangemessen hoch. Laut einem Test von Golem.de sollte eine RX 570 in diesem Szenario eigentlich nur ca. 14 Watt verbrauchen und nicht mehr als das doppelte hiervon. Beim Anschauen eines Videos auf YouTube steigt der Verbrauch auf ca. 42 Watt an, wobei hier laut der Tabelle eigentlich 21 Watt ein normaler Verbrauch wäre. Am Verbrauch ändert sich nichts, wenn man den Monitor anstelle des DisplayPort-Kabels stattdessen mit einem HDMI-Kabel verbindet.

Undervolting.jpg


Verbrauch.JPG


Habt ihr eine Idee, wie man die oben genannten Probleme lösen könnte? Ich habe den alten Treiber meiner GTX 560 Ti und auch die bisherige Version des AMD-Treibers im abgesicherten Modus mit DDU deinstalliert und die neuste Version der AMD-Software erneut installiert (19.2.2). Dies hat leider nicht bei der Behebung der oben genannten Probleme geholfen. Die Probleme bestanden auch schon mit der vorherigen Version des AMD-Treibers. Der neuste Treiber für den Monitor wurde ebenfalls heruntergeladen und ordnungsgemäß installiert. Ich bin mit meinem Latein leider mittlerweile echt am Ende und hoffe sehr, dass ihr einen Rat für mich habt.

Viele Grüße und vielen Dank schon einmal im Voraus für eure Hilfe
Ic3cube3
 

Anhänge

  • AMD Treiber.JPG
    AMD Treiber.JPG
    49,5 KB · Aufrufe: 384
  • Verbrauch.jpg
    Verbrauch.jpg
    18,4 KB · Aufrufe: 381
Zuletzt bearbeitet:
Nein, nur diesen einen BenQ EW3270U, sonst keinen. Ich hätte leider auch keinen anderen Monitor, um zu überprüfen, ob die Probleme dort auch auftreten.
 
Du hast eine 8GB Karte, da wurde eine 4GB Karte getestet. Meine 4GB Karten verbrauchen auch weniger als meine 8GB Karten.
So gut wie jede RX5XX Karte macht 1,2GHz GPU Core bei 900mV mit.

Abgesehen davon nutzt du das Boost/OC VBios whatever, die TDP,TDC(A) Powerlimit usw. ist da ganz anders als beim ursprünglichem silent VBios einer Nitro+(da wäre der p-state 7 bei 1240MHz GPUCore).
Warum Sapphire der Meinung ist auf die Karten jetzt ein compute VBios zu knallen kann dir nur Sapphire erklären.
 
Ich habe die einzelnen Power States nach und nach unter Zuhilfenahme von Unigine Heaven auf die niedrigste stabile Spannung gebracht, in dem ich den jeweiligen (zu optimierenden) Power State sowohl als Min- als auch Mac-State festgelegt habe. Dann habe ich die Spannung so lange abgesenkt, bis ein voller Durchgang wegen Absturz nicht mehr möglich war. Die Spannungen in meinem angehängten Bild sind das niedrigste, das meine Karte schafft.

Im verlinkten Test waren auch zwei RX 580 mit jeweils 8 GB dabei, die auch deutlich unter der 15-Watt-Marke geblieben sind. Ich kann mir kaum vorstellen, dass eine RX 570 mit weniger Leistung mehr als doppelt so viel Strom brauchen soll.

Außerdem mindert sich der Stromverbrauch auch dann nicht, wenn ich die Taktrate der Karte auf das Niveau des Computing-BIOS (1120 MHz) oder gar den Minimaltakt (300 MHz) beschränke. Selbst die Kombination mit einem Power-Target von - 50% (Maximum) führen nicht zu einem einzigen Watt Ersparnis. Die Karte nutzt im Idle eine Spannung von 750 mV, niedriger geht es wohl nicht. Ist das normal?

Ferner habe ich auch schon das Computing-BIOS ausprobiert. Auch dort pendelt sich der Stromverbrauch mit Undervolting bei den oben genannten ca. 35 Watt ein.
 
Und du hast jetzt genau das selbe System wie golem im Test? Musstest du nicht erst dein Mainboard Bios updaten damit die Karte überhaupt läuft? Eventuell fehlen da einige Stromsparfunktionen.

Hier mal der Unterschied zwischen Boost/OC und Silent VBios.
RX570_8G_Nitro_OC.jpg

RX570_8G_Nitro_silent.jpg


Was du im Wattman einstellst interessiert die Karten nicht, die nimmt sich laut ppt das was sie nehmen kann/darf. D.h. selbst eine ppt z.B. mit overdriveNtool erstellen oder direkt im VBios fummeln.
Hier die SVI2 Voltages:
RX570_8G-Nitro_SVI2_Voltage.jpg
 
Ich habe natürlich nicht das exakt gleiche System wie die Testenden von Golem.de, zumindest als Näherung sollten die dort gemessenen Werte für den jeweiligen Verbrauch der GPU doch aber brauchbar sein. Und ja, ich musste für die Funktionalität meiner GPU erst das BIOS updaten, seitdem funktioniert aber (von den obigen Punkten mal abgesehen) alles wunderbar. Welche Stromsparfunktionen hat den ein "normales modernes BIOS", das den Verbrauch der GPU so drastisch senkt? Dann wüsste ich immerhin schon mal, nach was ich suchen muss. Vielleicht fehlt ja wirklich nur eine Einstellung, die das Problem dann schnell beheben würde.

Den Unterschied zwischen Boost- und Silent-Bios kann ich anhand deiner geposteten Bilder leider nur teilweise nachvollziehen. Ich habe dafür zu wenig Ahnung vom Aufbau eines GPU-Bios.

Was ich mich aber frage ist, warum die Einstellungen im Wattman keinen Einfluss auf Leistung und Verbrauch der GPU haben sollen. Soweit ich das nachvollziehen kann, ändern die Einstellungen dort unmittelbar die Taktrate und die Spannung, die der Karte zur Verfügung gestellt wird. Hätte der Wattman keinen Einfluss auf diese Parameter, könnte man eine GPU nicht mit einem zu hohen Takt oder zu geringer Spannung in den dortigen Einstellungen zum Absturz bringen, oder? Außerdem wird - zumindest bei mir - stets der Spannungswert als gegenwärtig anliegend angezeigt (GPU-Z, HWMonitor usw.), den ich mir im Wattman für den jeweiligen Powerstate ausgesucht habe. Es wäre doch schon ein arger Zufall, wenn die Karte sich selbst genau diesen Wert aussuchen würde, oder? Oder funktionieren diese ganzen Überwachungsprogramme alle nicht?

Und zum Thema 10 Bit: Hat keiner was dazu zu sagen? Bin ich der einzige mit diesem Problem?
 
Schau dir einfach die Werte TDP(W), TDC(A) und Powerlimit(W) an.

In dem SRB Screenshot siehst die die "Übersetzung" der dynamischen Werte ab p-state 1 in fixe Werte in mV.

Das heißt die Karten nehmen sich das was sie laut SVI2 beim Wert 65282 usw. nehmen können(von bis).
Im mining Bereich gehen die User nicht umsonst hin und bauen/schreiben sich ihre eigenen ppts, selbst unter Linux wird auf die Werte immer was draufgehauen, wenn ich da jetzt 865mV in die config schreibe, laufen die Karten mit 870mV usw., sofern man im VBios keine fix Werte einträgt.
Ändere ich das ganze im VBios in fix Werte, dann nimmt sich die Karte exakt das was im VBios eingetragen ist z.B. 900mV in p-state 7. Nur muss man das für jeden Algorithmus durch testen, einfacher ist es mit dynamischen Werten zu arbeiten, insbesondere wenn man zwischen verschiedenen Blockchains hin und her wechselt.
Man kann natürlich hingehen und die dynamischen Werte "glätten" d.h. 65282 65282 65283 65283 usw. aber auch hier muss man testen wie stabil die Karte läuft.
Das kann man mit dem overdriveNtool am besten oder man nutzt wenigstens so was wie Afterburner oder Sapphire Trixx, wenn man an der ppt nicht fummeln will.
 
Danke für die Erklärung. Warum muss ich denn Afterburner oder Sapphire Trixx nehmen, wenn AMD bereits ein übersichtliches Tool mit präziser Einstellbarkeit und gutem Interface bietet? Ich verstehe noch nicht ganz, was für einen Vorteil diese beiden Programme bieten sollen, den mir der Wattman direkt von AMD nicht bieten kann?

Außerdem verstehe ich immer noch nicht, wie mir das BIOS der GPU bei der Behebung meines Problems helfen soll. Ich verstehe natürlich, dass ich dort die jeweilige Spannung usw. der Karte bei bestimmten Taktraten verändern und damit auch den Verbrauch senken kann. Aber das ist ja nicht wirklich eine Lösung für mein Problem, sondern eher ein Workaround zur Vermeidung der Behebung des eigentlichen Problems. Es muss ja einen Grund dafür geben, dass die Karte zwar auf 300/300 MHz und 750 mV runtertaktet, dabei aber trotzdem und trotz kompletter Lastfreiheit fast 40 Watt verbraucht, während sie unter Volllast nur das ca. doppelte hiervon benötigt (wo dann 1210/1750 MHz bei über 1000mV anliegen).

Kann es sein, dass einfach die Messung durch Wattman/GPU-Z/HWMonitor falsch ist und der tatsächliche Verbrauch deutlich unter dem angezeigten liegt?

Und was kann ich machen, dass ich die Karte auf 10-Bit-Ausgabe umstellen kann? Hat da keiner von euch eine Idee für?
 
Weil AMD nicht in der Lage ist eine konstante Qualität bei den Windows Treiber bereitzustellen. Siehe auch Radeon VII.
OverdriveNtool wurde exakt deswegen entwickelt und wird auch weiter entwickelt.

Der Blockchain Fix, was man jetzt als compute workload einstellen kann, wurde z.B. von claymore entwickelt, die AMD Entwickler hatten keine Ahnung woran das liegt.
Unter Linux sieht das ein wenig anders/besser aus und meine sechs RX5XX laufen unter ethOS(basiert auf Ubuntu).

Golem hat die Werte mit einer Strommesszange gemessen, siehe z.B. tomshardware guide, Igor misst auch alles mit entsprechendem Equipment durch. Bei dem 10 Bit Problem kann ich dir leider nicht helfen.
 
Ic3cube3 schrieb:
Kann es sein, dass einfach die Messung durch Wattman/GPU-Z/HWMonitor falsch ist und der tatsächliche Verbrauch deutlich unter dem angezeigten liegt?
lies dich mal hier durch. Es ist wohl so, dass der angezeigte Wert nicht stimmt, und die Karte deutlich weniger verbraucht...
 
Vielen Dank für den Link, sehr informativ. Mit dem Wissen, dass wahrscheinlich schlicht und ergreifend die Auslesung der Werte nicht korrekt ist, kann ich deutlich besser leben als mit einer GPU, die auf dem Desktop fast 40 Watt braucht.

Ich habe das Ganze auch noch einmal mit HWInfo ausgelesen. Kann es sein, dass es sich bei dem relevanten Wert eigentlich um die GPU Core Power und nicht um die GPU Chip Power handelt? Das würde nämlich schon eher in die richtige Richtung gehen. Zusammen mit dem untersten Eintrag (GPU VRM Power) käme man in Summe nämlich auf die typischen 15 Watt für ein 4K-Display?

GPU Power Drain.jpg
 
Ic3cube3 schrieb:
Mit dem Wissen, dass wahrscheinlich schlicht und ergreifend die Auslesung der Werte nicht korrekt ist, kann ich deutlich besser leben als mit einer GPU, die auf dem Desktop fast 40 Watt braucht.
ich auch... :p
ich hoffe mal einfach, das der Wert falsch ist...
Hast du die Möglichkeit, mal ein Strommessgerät an dein System zu hängen?
 
Ich habe leider keins, werde aber mal in meinem Bekannten- und Freundeskreis fragen, ob vielleicht noch jemand eins in seinem Bastelkeller hat. Würde mich auf jeden Fall mal sehr interessieren, welcher der Werte hier wohl der richtige ist.
 
GPU Core Power covers only the core rail of the GPU (measured via VRM telemetry). GPU chip power should cover entire GPU chip power (core + aux + additional logic), which is calculated by the GPU and partially measured (core and sometimes aux too) and partially estimated based on activity counters (additional logic) or fixed constants. Note, that the core power might sometimes seem higher, due to instantaneous peaks, which are averaged in the total (chip) power calculation.

Wie gesagt ohne Strommesszange etc. wirst du nicht exakt ermitteln können was die GPU alleine zieht.
 
Zurück
Oben