Test Radeon RX 7900 XT(X): Neue Treiber senken den Verbrauch auch bei Teillast in Spielen

CB: Vorbildlich drangeblieben und nachgetestet!

AMD: Saudämlich den Launch versemmelt, der schlechte Eindruck geht nicht weg, wer immer die Karte kaufen will, googled den Test, nicht die späteren Ergänzungen zu den Treibern.

Produkt: Sieht für mich eigentlich schon recht rund und gut genug aus. Die 3080er hat auch niemand an den Wand genagelt für die damals höheren Verbräuche bei nicht-Spielelast.

Was ich persönlich nicht mehr missen möchte ist eine Karte mit minimalem Verbrauch bei Teillast. Schon die 6800xt die ich hatte war super sparsam, wenn man die Frames fix gesetzt und ein bisschen optimiert hat. Jetzt spiele ich Anno mit fixen 100FPS in 4k mit 260W auf der 4090 - das ist so geil! Ich will dafür dann einfach keine 400+W mehr raushauen und in meinem Zimmerchen gekocht werden. Da fände ich es also schön, wenn auch in 4k diese alte AMD-Stärke auch zurückkäme.
 
  • Gefällt mir
Reaktionen: Volvo480
Taxxor schrieb:
In den Kommentaren dort war entsprechend ohne die Info aus diesem Artikel natürlich die Stimmung sehr negativ, weil man davon ausgegangen ist, es hätte sich seit Release gar nichts am Teillastverbrauch in Spielen getan.
Muss toll sein eine Gabe zu besitzen durch die Leutes Köpfe zu sehen und zu wissen warum eine negative Stimmung herrscht.

Die negative Stimmung hat noch ganz andere Gründe:

- defekte Karten (Das NICHT rangehen an eine Lösung sondern das abwarten bis die Kunden es merken und sich melden)

- Treiber die Grafikkarten zerstören? (Das macht erst jetzt die Runde, das es aber aus zuverlässigen Quellen kommt finde ich sollte man mal hinhören)

- Schlechte Treiber (z.B. der Idle Verbrauch und viele andere Bugs)

Das Ding ist, diese Dinge wären nicht so schlimm wenn: 1. AMD günstiger wäre als Nvidia (nein sind sie nicht) und 2. Man nicht so tun würde als wäre der Underdog AMD der allheilbringende Hersteller der seinen Kunden nur gutes wünscht und alle Konkurrenz einmal vernichten mag
 
  • Gefällt mir
Reaktionen: BlechBuechse_DE
spfccmtftat schrieb:
Hach ja, dafür kommt es bei nVidia vor, dass sich die GPU wie ein externes Laufwerk auswerfen lässt. Ist dann eben etwas ungünstig.
Absolut. Meine 4090 gibt nach dem Standby gerne mal einfach kein Bild aus, dann muss ich neu starten. Kackt mich auch schwer an, passiert eben bei Millionen vor verschiedenen Konfigurationen.
 
  • Gefällt mir
Reaktionen: rumpeLson
sifusanders schrieb:
ändert nichts an seiner Argumentation.
Natürlich ändert es das, den Sie haben es nicht behoben punkt. Der Verbrauch ist immernoch zu hoch, höher als bei der Konkurrenz, aber deutlich besser als davor.
Bevor man kommentiert mag man auch mal nachdenken.
 
RyzaTune schrieb:
Natürlich ändert es das, den Sie haben es nicht behoben punkt. Der Verbrauch ist immernoch zu hoch, höher als bei der Konkurrenz, aber deutlich besser als davor.
verbessern ist besser als nichts war seine Argumentation.
RyzaTune schrieb:
Bevor man kommentiert mag man auch mal nachdenken.
right back at ya
 
  • Gefällt mir
Reaktionen: Rockstar85 und Michael vdMaas
spfccmtftat schrieb:
Hach ja, dafür kommt es bei nVidia vor, dass sich die GPU wie ein externes Laufwerk auswerfen lässt. Ist dann eben etwas ungünstig.

Jeder Hersteller legt sich ab und an ein Ei.
Sorry aber das ist halt Birnen mit Äpfel vergleichen. Hast du wenigstens eine valide Quelle oder kannst irgendwie Statistiken bringen oder hast du einfach mal irgendwo einen Beitrag dazu gelesen? Ich habe noch nie davon gehört und finde nur ältere sehr wenige Beiträge dazu.
 
  • Gefällt mir
Reaktionen: BlechBuechse_DE
incurable schrieb:
Wenn AMD nur Leerlauftakt und Vollgas verifiziert, dann können sie nicht mal einfach im Nachgang noch irgendeinen Zwischenschritt mit weniger Verbrauch einziehen. (obendrein könnte es auch ein Limit der Architektur sein)

Wenn mich mein Hirn nicht täuscht habe ich mehrere Stufen zufällig in der GUI gesehen. Somit sollte es möglich sein. Was, wie genau wann ist mir natürlich nicht bekannt.
 
  • Gefällt mir
Reaktionen: incurable
Neodar schrieb:
Warum musss man bei AMD eigentlich immer erst Monate lang warten, bis die solche Dinge in ihren Treiber mal gefixt bekommen?
Also AMD bringt vor Weihnachten einen neuen Treiber und dann am 13.01. einen weiteren neuen Treiber und du nennst das Monate lang warten? Also bei mir in der Firma hat der größte Teil Urlaub zwischen den Jahren und da läuft nicht so viel, könnte mir vorstellen das es bei AMD ähnlich ist. Kann die Kritik daher nicht nachvollziehen.

Taxxor schrieb:
@Wolfgang Ein bisschen unglücklich, dass man erst jetzt erfährt, dass der 2. Treiber den Verbrauch teils deutlich verbessert hat, nachdem man vorher schon eine News gebracht hat, nach der der dritte Treiber nichts am Verbrauch verbessert.
In den Kommentaren dort war entsprechend ohne die Info aus diesem Artikel natürlich die Stimmung sehr negativ, weil man davon ausgegangen ist, es hätte sich seit Release gar nichts am Teillastverbrauch in Spielen getan.
Ich bin direkt mit dem 2. Treiber gestartet und konnte die Kritik nicht nachvollziehen. ;)
 
  • Gefällt mir
Reaktionen: Bänki0815 und MiroPoch
Als Effizienz-Enthusiast fallen die Karten immernoch aus meinem Raster. Nicht das ich sie kaufen würde wenn der Verbrauch stimmen würde, ziehe so oder so die Reißleine bei 400€
Mal schauen was bei den kleineren Modellen rumkommt, die sind in der Regel im Niedriglastbereich immer genügsamer.

Hat einer beim Test drauf geschaut, was genau den Mehrverbrauch anhebt ? Meißt ist es ja der Speicher der wie verrückt taktet. Mit CRU habe ich in den letzten 2 Wochen ein wenig gespielt und konnte bei meiner rx 5700 noch einiges einsparen, auch an einem einzigen Monitor:

Verlauf blieb gleich vom Verbrauch her.
1080p Youtube:
16W -> 10-11W
UHD Youtube:
26W -> 14W
UHD 60FPS Youtube:
35W -> 20-22W

Dabei war fast immer der VRAM drann schuld, welcher schon bei 1080p auf über 600MHz ging und ab WQHD immer am Anschlag lief.
Nun hat bei UHD&60fps der Grafikchip etwas mehr zu tun, dafür bleibt der VRAM bei 300-400MHz
 
  • Gefällt mir
Reaktionen: IronAngel und jlnprssnr
sifusanders schrieb:
verbessern ist besser als nichts war seine Argumentation.

right back at ya
Seine Argumentation hat weder eine Stütze noch ist es das gleiche Problem. Es geht hier um zwei andere Probleme beider Hersteller. Der eine Fehler kann in einem bestimmten Szenario auftreten das andere tritt immer und ständig auf.
 
Ich könnte mir vorstellen, dass AMD Game Liste für interne Benchmarks und Tests am Ende zu klein war und dann bei einem großen Test dann selbst gemerkt haben, dass die Dual Issue Mechanik und das neue Si Design dann nicht so über alles skalliert hat, wie erhofft.
Bin gespannt ob mit nachschärfen es dann besser wird. Aber selbst dann sollten sie alles tun, weil am Ende jede Erkenntnis RDNA4 zugute kommen wird.
Es gibt ja auch Games wo RDNA2 besser läuft. Besonders dort kann man vllt noch am meisten den Hebel ansetzen ?! Spannend.
 
der verbrauch liegt nun schon recht nah bei NV (4080) geht also in die richtige Richtung und sofern RT für einen nicht oberste Priorität hat sind die 7900XT(X) karten durchaus konkurrenzfähig...
 
Meister1982 schrieb:
Also AMD bringt vor Weihnachten einen neuen Treiber und dann am 13.01. einen weiteren neuen Treiber und du nennst das Monate lang warten? Also bei mir in der Firma hat der größte Teil Urlaub zwischen den Jahren und da läuft nicht so viel, könnte mir vorstellen das es bei AMD ähnlich ist. Kann die Kritik daher nicht nachvollziehen.
Ich verstehe den Kommentar von Neodar, hatte mal ne 5700XT und Vega beide hatten Monate nach Release Fehler die ich nicht fassen konnte. (Blackscreen abstürze trotz mehr als ausreichendem Netzteil z.B. Stuttering bei einigen Spielen usw.)
 
Also dass AMD nach dem Launch erst mal Clock- und Power-gating, sowie andere Energiesparmechanismen zum Laufen bringen muss, ist erst mal nichts Neues. Der Chiplet-Aufbau erschwert dieses Vorhaben, bzw. erlaubt es nicht, frühere Mechanismen und deren Implementierungen ohne Modifikationen weiter zu verwenden.

Zum Produktpreis, dem auch sonst überhasteten Launch, sowie dem Referenzkühlerdebakel (in der QA werden Stichproben der Vaporchamberkühler normalerweise vor und nach dem Befüllen gewogen - hier wurde wirklich versucht, jeden letzten Cent einzusparen!), und AMDs Tendenz, die Karten immer strenger mit Firmware abzuriegeln, um die Produktsegmentation zu erzwingen, sage ich lieber nichts, da ich dafür keine neutralen-freundlichen Worte über habe.
 
  • Gefällt mir
Reaktionen: RyzaTune
pipip schrieb:
Ich könnte mir vorstellen, dass AMD Game Liste für interne Benchmarks und Tests am Ende zu klein war und dann bei einem großen Test dann selbst gemerkt haben, dass die Dual Issue Mechanik und das neue Si Design dann nicht so über alles skalliert hat, wie erhofft.
Wenn einer der größten Grafikkartenhersteller nicht genug Steam Spiele hat für die Qualitätsprüfung :D (joke)
 
Also ich finde die Optimierung schon sehr sehr gut. Das sind vollkommen andere Werte, zumindest mit Cap. Für WQHD ist die Karte somit optimal. Auch der Idle Verbrauch unterscheidet sich nicht mehr von Nvidia.

Den 4K Verbrauch erachte ich jedoch noch immer als deutlich zu hoch. Wenn man hier noch 20W irgendwo rausholen könnte wäre das top.

Damit wäre die Karte deutlich wettbewerbsfähiger. Senkt man dann noch den Preis um effektiv 150€ bei beiden Modellen, käme Nvidia mit Sicherheit richtig in Zugzwang.

Leider hat AMD dermaßen schlecht gelaunched, dass es schwer werden wird hier wieder zu überzeugen.
 
  • Gefällt mir
Reaktionen: Teeschlürfer, drago-museweni und RyzaTune
RyzaTune schrieb:
Ich verstehe den Kommentar von Neodar, hatte mal ne 5700XT und Vega beide hatten Monate nach Release Fehler die ich nicht fassen konnte. (Blackscreen abstürze trotz mehr als ausreichendem Netzteil z.B. Stuttering bei einigen Spielen usw.)

Das die NVIDIA Treiber besser sind ist auch meine Erfahrung, auch wenn ich erst 2 NVIDIA Karten hatte. Aber von dem einen Produkt auf das andere Produkt zu schließen ist quatsch. Fakt ist auch das die aktuellen AMD Treiber noch feinschlimm benötigen, wenn ich diese Updates sehe ist AMD doch auf einen guten Weg. :) Bin jedenfalls froh das ich mich für die 7900XTX entschieden habe.
 
Danke für den Nachtest.

Damit werden die Karten definitif attraktiver.
 
  • Gefällt mir
Reaktionen: Meister1982
Kurzer Nachtrag:

Bei zwei Monitoren (UHD + FHD) ist es so das sobald einer der zwei Monitore 144Hz hat gibt es den 110W verbrauch.

Wenn ich beide auf 120 Hz stelle bekomme ich die ~70 Watt.
120Hz.png


Im Moment solange man 144 Hz einstellt egal ob beide oder einer der Monitore gibt es den hohen Verbrauch von ~110W.

Falls jemand unbedingt mit 110W nicht klar kommt, gibt es diese Möglichkeit. Vielleicht ist damit einigen hier geholfen.


Funfact: Wenn man 120Hz nutzt und dabei UHD Youtube Video schaut, bekommt man ca 5-10 Watt weniger verbrauch hin :lol:

Youtube_120Hz.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Pankrat, .fF, karl_laschnikow und 2 andere
Zurück
Oben