Notiz AMD Adrenalin: Zwei Treiber machen Radeon startklar für F1 23

Vitche

Redakteur
Teammitglied
Registriert
Aug. 2016
Beiträge
3.099
  • Gefällt mir
Reaktionen: BorstiNumberOne, DannyA4, Hellyeah und 6 andere
Und bevor die Frage kommt: Ja, den Hinweis und ebenso die Diagramme zur Leistungsaufnahme werde ich in jede neue Treiber-Notiz packen, bis AMD da endlich mal nachbessert. Die Produkte sind ein halbes Jahr auf dem Markt, dem Hersteller war das Problem von Beginn an bewusst - aber es tut sich nichts. Eine Frechheit imho.
 
  • Gefällt mir
Reaktionen: flo.murr, Cy4n1d3, Shir-Khan und 42 andere
Meine Stimme hast du. Solange AMD hier bei dieses Thema nicht ordentlich nachbessert werden sie kein Geld mehr von mir sehen.
 
  • Gefällt mir
Reaktionen: flo.murr, LTCMike und marv04
Meine 7900xtx braucht mit 144 HZ 4K 9 Watt auf dem Desktop
 
  • Gefällt mir
Reaktionen: tömu, DannyA4, gecan und 2 andere
Ich werde wohl noch sehr lange meine RVII behalten🤷🤦
 
  • Gefällt mir
Reaktionen: Strikerking und NMA
Also meine 7900xtx ist aufm Desktop beim browsen etz. immer zwischen 20-40 watt.
bei Videos (youtube und co.) kommt sie nich über 60 Watt.
is das denn wirklich zu viel?

meine 5700xt war da auch nicht sparsamer....
liegt wohl an meinen gadgets die alle 2 sec. aktualisiert werden denk ich...

für mich is das halt nich viel sondern seit ein paar Generationen eigentlich normal irgendwie.......

Den Treiber hat mir Windows 11 jedoch regelrecht "aufgezwungen" ala "eingreifen erforderlich"

Natürlich funktionierte danach das UI nich mehr mit der Meldung "Windows update hat............"

Naja die willkürlichen Treiber Updates der Graka Treiber durch Windows sind ja inzwischen auch quasi "normal".......
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McTheRipper und Cleanor
Ich finde diese Arbeitsweise von AMD und NVIDIA auch irgendwie seltsam. Für jedes neue Spiel soll ich einen Game-Ready Driver herunterladen, als ob ein Spiel erst damit vernünftig liefe.
Mein laienhaftes Verständnis ist eigentlich, dass ein Spiel dokumentierte Zugriffe auf die Grafikeinheit anfragt und der Treiber diese beantwortet, ohne irgendwelche „Hacks“ durch angepasste Treiber
 
  • Gefällt mir
Reaktionen: NJay, M11E, Qyxes und 2 andere
Contor schrieb:
Also meine 7900xtx ist aufm Desktop beim browsen etz. immer zwischen 20-40 watt.
bei Videos (youtube und co.) kommt sie nich über 60 Watt.
is das denn wirklich zu viel?

Ja, viel zu viel. Wozu sollte ein Video abspielen 60 Watt brauchen. Das ist doch Wahnsinn.

Ein Smartphone kann das wahrscheinlich mit 1-2 Watt gesamtverbrauch.
 
  • Gefällt mir
Reaktionen: BorstiNumberOne, Dowinder, Benji18 und eine weitere Person
Meine RX 6800XT läuft im Desktop im Dual-Monitor betrieb bei 20-28W bei 1440p@165Hz + 1080p@60Hz, allerdings auch erst seit dem 23.2.1, wenn ich mich nicht irre.
Dafür hab ich Wiedergabeprobleme auf YT (Grünes artefacting im oberen Drittel des Videos, völlig zufällig, willkürlich und nicht bei jedem Video) seit dem 22.11.2 Treiber, und mit den aktuellen 23.5.1 und 23.5.2 Treibern ab und an ein graues Artefakt-Band (sieht aus wie die Ziel-Flagge bei der Formel 1, nur eben grau transparent statt schwarz/weiß) an der Grenze des, von oben nach unten gesehen, 1. und 2. Viertels, allerdings ausschließlich in Valheim. Keine Probleme in Dead Island 2, Cyberpunk 2077, Metro Exodus oder sonstige Spiele, wirklich nur in Valheim.
 
Hmm, der Idle Verbrauch meiner 7900XTX hat sich über die Monate fast auf das Niveau der vorherigen 6900XT eingependelt, wurde zwar nicht kommuniziert aber es ist deutlich besser geworden als zu Release.
Sebastian_12 schrieb:
Meine 7900xtx braucht mit 144 HZ 4K 9 Watt auf dem Desktop
Ist bei mir auch so, allerdings mit geöffnetem Browser schwankt die Leistungsaufnahme schon erheblich. Insbesondere Seiten mit aggressiver Werbung lassen den Verbrauch gerne mal ausufern...
 
  • Gefällt mir
Reaktionen: M11E, LukS, Cleanor und eine weitere Person
Irgendwie verstehe ich die Treiber-Bezeichnung bei AMD nicht wirklich.
Die RX7600 hat den 23.10.xx exlusiv
hier wird der 22.40.xx als neuer Treiber beworben, selber habe ich aber den 23.20.00.11
 
  • Gefällt mir
Reaktionen: M11E und HanBuaal
Vitche schrieb:
Und bevor die Frage kommt: Ja, den Hinweis und ebenso die Diagramme zur Leistungsaufnahme werde ich in jede neue Treiber-Notiz packen, bis AMD da endlich mal nachbessert. Die Produkte sind ein halbes Jahr auf dem Markt, dem Hersteller war das Problem von Beginn an bewusst - aber es tut sich nichts. Eine Frechheit imho.
Danke daß du die User wegen so einem Scheiß zu Nvidia treibst und deren Monopol förderst... :mad:
 
  • Gefällt mir
Reaktionen: sebastian_uniq, Taron, C0rteX und eine weitere Person
Vitche schrieb:
Und bevor die Frage kommt: Ja, den Hinweis und ebenso die Diagramme zur Leistungsaufnahme werde ich in jede neue Treiber-Notiz packen, bis AMD da endlich mal nachbessert. Die Produkte sind ein halbes Jahr auf dem Markt, dem Hersteller war das Problem von Beginn an bewusst - aber es tut sich nichts. Eine Frechheit imho.
Gerne anfügen, aber auch mit dem Verweis, dass andere Monitore auch nur
8-15W Verbrauchen
Monitor: 4k144Hz Dell G3223Q - GPU: Rx 7900Xt Sapph. Pulse

Dann evtl. einen kleinen Balken rein für den Verbrauch anderer Monitore oder mit diesem Monitor nachtesten und den Balken ändern. So ensteht der falsche Eindruck, dass alle Monitore zuviel Idle verbrauchen!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: up.whatever, DannyA4, C0rteX und 2 andere
Sternengucker80 schrieb:
Ich werde wohl noch sehr lange meine RVII behalten🤷🤦
Die mit dem schönen Multi-Monitor Problem?
Hätte ab dem Adrenalin 2020 der Treiber nicht Allgemein so stark nachgelassen wäre ich wahrscheinlich immer noch bei AMD Grafikkarten glücklich.
 
Wie sieht denn der Stromverbrauch bei 1440p@144hz aus? Das ist eigentlich das einzige, das mich interessiert. Bzw. Dual-Monitor mit eben diesem und einem 1080p@60hz Monitor. Ist 144hz das Problem, oder die kombinierten Pixel/s? Dazu ist es leider schlicht unmöglich Daten zu finden. 2x 2160p@60hz geht ja offensichtlich, da ist AMD sogar verdammt gut dabei, also geht dann auch 2160p@120hz oder eben 1440p@144hz? Kann da jemand von berichten oder kennt Testes, die diesen Fragen nachgehen?

Weil absolut alle Tests, die ich kenne, testen nur Dual-Monitor mit 2160@60hz oder ebene 144hz, aber nie andere Auflösungen.

Edit: Ok, ich habe endlich mal was dazu gefunden, zwar für Linux aber sollte denke ich auch prinzipiell für Windows gelten. Siehe Kommetar von Andrei Amuraritei vom 25. April https://gitlab.freedesktop.org/drm/amd/-/issues/2315

DELL S2719DGFSAMSUNG 75” Q95TMCLKPPT
2560x1440 60,144disabled96~16W
disabled3840x2160 100,12096~22W
disabled3840x2160 60,50,30,25,2496~16W
2560x1440 1443840x2160 120,1001249~90W
2560x1440 1443840x2160 6096~22W
2560x1440 1443840x2160 5096~18W
2560x1440 1443840x2160 30456~42W
2560x1440 144,603840x2160 25,2496~18W
2560x1440 603840x2160 60,50,30,25,2496~18W
2560x1440 603840x2160 1001249~90W
2560x1440 603840x2160 12096~26W

Solange man keinen 2160p@144hz Monitor (oder vermutlich 2 1440p@144hz Monitore) hat ist man von dem Problem vermutlich nicht (mehr) betroffen.

@Vitche Wäre es möglich statt 2160p@144hz - was imho eher eine Randerscheinung ist - ein eher realistisches Setup wie 1440p@144hz + irgendwas mit 60hz als 2. Monitor zu testen? Zumindest beim nächsten Mal. Kenne viele mit so etwas, inkl. mir, aber keinen mit einem 2160p@144hz Monitor. Und dass sich nichts tut stimmt doch auch nicht wirklich, denn anscheinend existiert das Problem ja nicht mehr generell wie es zu Beginn der Fall war, sondern nur ab einer gewissen Pixelfüllrate. Darunter hat man natürlich noch den höheren Verbrauch bei z.B. Video, aber das ist für mich persönlich dann etwas, mit dem ich leben könnte. Nvidia kaufen wäre für mich einfach schlimmer* als 20W mehr auf Youtube.

*Alles unter der 4090 wirkt für mich einfach zu sehr künstlich beschnitten (z.B. "Speicherkrüppel" 4070 ti) und kundenfeindlicher, proprietärer Bullshit zur Quasimonopolverfestigung geht mir auf die Eier. Auf meiner 2060 geht Adaptive Sync z.B. nach wie vor nur mit extrem vielen Problemen, das haben die nur tokenmäßig in den Treiber eingebaut.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: C0rteX, McTheRipper und Redundanz
CBCase schrieb:
Mein laienhaftes Verständnis ist eigentlich, dass ein Spiel dokumentierte Zugriffe auf die Grafikeinheit anfragt und der Treiber diese beantwortet, ohne irgendwelche „Hacks“ durch angepasste Treiber
Das ist grundsätzlich auch wahr, aber bei einem so komplexen Zusammenspiel wie bei einer GPU und einem Spiel gibt es fast immer auf beiden Seiten Optimierungspotential.

Unter anderem deswegen hat Intel ja so zu kämpfen. Deren Treiber fehlt 20 Jahre an genau solchen Hacks.
 
  • Gefällt mir
Reaktionen: ConqiFanboy
Sebastian_12 schrieb:
Meine 7900xtx braucht mit 144 HZ 4K 9 Watt auf dem Desktop
Diese Pauschalausage ist auch komplett falsch und betrifft viel mehr Radeons und auch manche Nvidia. Meine 5700xt braucht am LG Ultragear 34GN850-B volle 32 Watt im Idle bei 144 Hertz egal welche Auflösung eingestellt wird. Genau bei 99 Hertz, geht der Speichertakt runter.
Beim Asus MG279Q nie Probleme gehabt, selbiges gilt auch für unseren LG OLED. Was ich da aber mangels HDMi 2.1 Anschluss der Radeon Karte nicht testen kann, ist 4K bei 120.
Wenn ich mir demnächst mal eine 7900XT zulege bekommt ihr hier ein Update
 
Mimir schrieb:
Ein Smartphone kann das wahrscheinlich mit 1-2 Watt gesamtverbrauch.
Komischer Vergleich, ein Smartphone wird wohl keinen 4K 144Hz Bildschirm betreiben. Bei Niedrigerer Auflösung/Hz sinkt der Verbrauch ja entsprechend.
 
Contor schrieb:
Also meine 7900xtx ist aufm Desktop beim browsen etz. immer zwischen 20-40 watt.
bei Videos (youtube und co.) kommt sie nich über 60 Watt.
is das denn wirklich zu viel?
Wenn viele Grafikkarten das Gleiche mit 10w bis maximal 20w hinbekommen, dann ist das definitiv zu viel.

Aber es ist selbstredend nur ein AMD-Problem.

Zwischenablage-11.jpg

Zwischenablage-22.jpg

Zwischenablage-33.jpg

Zwischenablage-44.jpg


AMD hat natürlich ein grundsätzliches Problem, das alle Karten betrifft. Aber trotzdem ist es interessant, wie einseitig die Betrachtung manchmal ausfallen kann.

Die Unberechenbarkeit der Idle-Leistungsaufnahme in Verbindung mit unterschiedlichen Monitoren und Betriebsarten ist ebenso ein unschönes und grundsätzliches Problem, für das man AMD so lange kritisieren sollte, bis sie das endlich gefixed haben.

Aber allgemein die Idle-Leistungsaufnahme? Wie sieht es denn da bei so manchem hochgezüchteten NVIDIA-Custom-Modell laut Techpowerup aus

7900XTX Referenz = ~ 12 - 16w
7900XTX Merc = 15w
7900XTX TUF = 12w
7900XTX Nitro+ = 16w
7900XTX Taichi = 17w

4080 Founders Edition = 12w
4080 Colorful Ultra = 23w
4080 Gainward Phantom = 27w
4080 MSI Gaming X = 28w
4080 Zotac Amp Extr = 28w
4080 Gainward Phoenix = 30w
4080 MSI Suprim = 34w

4090 Founders Edition = 21w
4090 Colorful Vulcan = 28w
4090 MSI Gaming X = 32w
4090 Zotac Amp Extr = 33w
4090 Palit Gamerock = 33w
4090 MSI Suprim = 38w

Klar ist die Effizienz bei AMD insgesamt deutlich schlechter. Und Mixed-Usage mit Fenster-Schubsen oder Videoplayback etc. ist in der Summe ebenfalls nachwievor schlechter. Aber die Einseitigkeit der Kritik stört mich ehrlich gesagt mittlerweile, wenn man bei den Custom-Modellen der Konkurrenz schon genau hinschauen muss, um nicht an einen Stromverschwender zu geraten.

untitled-1.png

Guru3D
 

Anhänge

  • Zwischenablage-22.jpg
    Zwischenablage-22.jpg
    5,3 KB · Aufrufe: 103
  • Gefällt mir
Reaktionen: Legalev, tömu, MaverickM und 3 andere
Zurück
Oben