Test Radeon RX 7900 XT(X): Neue Treiber senken den Verbrauch auch bei Teillast in Spielen

*-MaXXimus-* schrieb:
Konnte durch undervolting meine 6900 XT von 350 auf ca 250 watt senken. Und das bei gleicher leistung.
Ich schenk dir einen Keks und beglückwünsche dich zu dem super guten Silizium. Aber bitte verkaufe das ganze nicht so, als ob das easy für jeden möglich ist.
Meine 6750 XT streicht schon bei dem niedrigsten Undervolt die Segel der Stabilität.

Wenn das nämlich so easy wäre, dass das quasi jeder Chip frisst, würde AMD die wohl direkt so auf dem Markt werfen. Wer nicht?
 
  • Gefällt mir
Reaktionen: BacShea, Eli0t, Cebo und 7 andere
  • Gefällt mir
Reaktionen: Monarch2 und Mcr-King
Shy Bell schrieb:
AMD bezahlt mit Imageschaden und schlechten Releasereviews nur um das Weihnachtsgeschäft 22 mitzunehmen. Dass ein Unternehmen, welches schon über ein halbes Jahrhundert existiert, so kurzsichtig agiert, will nicht in meinen Schädel gehen.
Ich gehe davon aus, dass es weniger um das Weihnachtsgeschäft geht (es wird doch ohnehin weiterhin alles aus den Händen gerissen) als dass Navi 31 halt fertig ist und bereits produziert wurde, während an Navi 32 und möglichen V-Cache-Varianten noch gebastelt wird. Entsprechend ist es für sie wertvoller, Praxiserfahrungen machen (zu lassen) und einige Enthusiasten als Betatester zu verwenden.
Shy Bell schrieb:
Die defekten Vaporchambers sehe ich auch im Zusammenhang mit diesen überstürzten Release.
Kann sein; am Ende können Auftragsfertiger aber immer mal Probleme haben. Siehe z.B. auch Apple...
 
  • Gefällt mir
Reaktionen: Mcr-King
Neodar schrieb:
Warum musss man bei AMD eigentlich immer erst Monate lang warten, bis die solche Dinge in ihren Treiber mal gefixt bekommen?
Ich will nicht sagen, dass NVidia Treiber fehlerlos sind. Aber sowas kommt bei denen einfach nicht vor.
Oder zumindest ist mir das nicht bekannt.

Ich mag solche Bananensoftware nicht.
Was heißt hier monatelang ? Die Karte ist doch gerade erst auf den Markt gekommen...:rolleyes:
Wenn AMD es jetzt noch schafft in Kürze ein ordentliches FSR3 zu releasen, und die Preise sinken bin ich AMD wieder freundlich gesonnen.
Den AMD obligatorischen Bananentreiberreifungsprozess von 5-10% mehr FPS erwarte ich natürlich auch.. :)
Nichtsdestotrotz sollte AMD einen zügigen Refresh auf einem konkurrenzfähigen Fertigungsprozess anstreben und für RDNA4 einen gewaltigen Sprung im Raytracing..
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Monarch2, xXDariusXx, MiroPoch und 2 andere
Simanova schrieb:
Trotzdem bleibt der fade Beigemack von unfertigen Treibern
An der Stelle muss man auch noch festhalten dass nicht nur die Treiber nicht rechtzeitig fertig waren. Es liegt auch noch eine Menge an Leistung einfach brach und wird gar nicht abgerufen. Erst wenn die AI-Cores endlich mal in den Dienst gestellt werden kann man wirklich sagen wie viel Leistung in dem Chip steckt...
 
  • Gefällt mir
Reaktionen: Rockstar85, .fF, xXDariusXx und eine weitere Person
trockenerToast schrieb:
und mit verwundern feststellen musste, dass FPS limits am Verbrauch eigentlich kaum was ändern..
Etwas pauschal die Aussage, daher schwierig interpretieren.
Wenn du in einem Spiel mit voller Auslastung 150fps bekommst, ist klar, dass eine Begrenzung auf 140fps nicht viel am Verbrauch ändert.
 
  • Gefällt mir
Reaktionen: guzzisti, Sly123, DannyA4 und eine weitere Person
Esenel schrieb:
Nehmt in den Idle Test bitte einen 4k 144Hz Monitor mit auf.
Gerade auf dem Postweg zu uns. 1.000 700 Euro. Schnapper!

Edit: @Wolfgang weiste mich darauf hin, dass es doch "nur" um die 700 Euro sind. ^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sigsegv, MehlstaubtheCat, BacShea und 17 andere
Mich bedrückt das Gefühl, dass der gesenkte Verbrauch im Teillastverbrauch (WQHD) nicht mit allen Spielen funktioniert.

Ich hatte vor wenigen Tagen auch noch eine 7900 XTX und die hat bspw. in PUBG weit über 200 FPS erreicht. Mit dem FPS Limiter (sogar auf 120 FPS) fiel der Verbrauch gerade mal auf 320W.
 
Die erste RDNA3 Karte mit Chiplets ist ein Early Adopter Product, genau so wie die Treiber dazu.
Was AMD hier released hat finde ich technisch beeindruckend, es ist aber noch nicht rund genug, um mich zu überzeugen, weil ich 1. noch brauchbar gut ausgestattet bin mit meiner Hardware und 2. bisher nur einmal Bleeding Edge neue Architektur gekauft habe und das ging mit der Vega64 schon ein wenig in die Hose 😅 (ja hat lange gute Dienste geleistet, war aber wirklich ein Verbrauchsmonster und hat ihre theoretische Rechenleistung einfach nicht auf die Straße gekriegt 🤷‍♂️ ).

Ich denke mit dem Treiber kann und wird AMD noch etwas Feinschliff und vllt. auch Leistung (bessere Shader-Versorgung mit Daten) bringen können, aber erst die nächste Generation wird die Sachen besser machen von denen Sie merken, dass mit einem Treiber keine Verbesserung mehr möglich ist.

z.B. ist der Memory Takt bzgl. mancher Monitor-Setup schon bei RDNA2 unnötig hoch im idle und AMD hat das bis heute nicht zu 100% in den Griff bekommen. Ich vermute dieses Problem ist mit RDNA3 noch ein viel komplexeres Problem, wenn man auch die Memory Controller Chips jetzt noch ausreichend skalieren muss (vielleicht kann man einige herunter fahren/abschalten bei geringer Auslastung oder wenn nur ein kleiner Teil des Speichers gebraucht wird) und nicht nur den VRAM selbst.

In der kommenden Generation bietet sich dann aber nicht nur die Chance für Verbesserungen, sondern dann kommt auch das Chiplet Potential zum Vorschein, so dass die Ingenieure für Leistungsverbesserung der Berechnungseinheiten nicht noch die Speicher-Controller im DIE mit migrieren müssen, sondern die Schnittstelle zum Speicher prinzipiell nicht angefasst werden muss. Man kann also getrennt und gezielt an Verbesserungen an einer Stelle arbeiten und ich glaube das bietet nicht nur sachlich optimiertere Arbeitseffizienz, sondern das Arbeiten macht dann auch mehr Spaß.

Wer schon mal irgendwas mit klaren Anforderungen entwickeln durfte an einem bestehenden Produkt mal mit Legacy Bestandteil Update und mal ohne Legacy Bestandteil Update, der weiß was das für einen Unterschied an Arbeitsaufwand und geopferten Hirnzellen das machen kann :D

P.S. Ohne Fanboy Allüren propagieren zu wollen, würde ich gerade aber auch nicht zu Nvidia greifen, einfach weil ich mich als Kunde mit den Preisen zu sehr gemolken fühle. Bräuchte ich jetzt eine Karte wären die RDNA2 Karten auf dem Gebrauchtmarkt oder zum Händler-Aktionspreis für mich klar die Nummer 1 :)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TheHille, Eli0t, anarchie99 und 5 andere
Damit sind die Low-Hanging-Fruits im Treiber bezüglich Effizienz wohl abgeerntet. Ich schätze mal, dass es ab jetzt deutlich schwieriger wird größere Effizienzverbesserungen zu erlangen.
 
  • Gefällt mir
Reaktionen: Pankrat und CM286
Neodar schrieb:
Warum musss man bei AMD eigentlich immer erst Monate lang warten, bis die solche Dinge in ihren Treiber mal gefixt bekommen?
Der hier getestete Treiber 22.12.2 kam am 20.12.22 raus, die Karten am 15.12.22. Es hat also gerade mal 5 Tage gedauert für diese Verbesserungen.

Das es besser gewesen wäre diesen Treiber zum Launch und für die Tests zu haben steht außer Frage, das es noch nicht optimal ist im "ist" Zustand auch nicht. Trotzdem ein Schritt in die richtige Richtung.
 
  • Gefällt mir
Reaktionen: Bänki0815, Monarch2, DannyA4 und 5 andere
Neodar schrieb:
Warum musss man bei AMD eigentlich immer erst Monate lang warten, bis die solche Dinge in ihren Treiber mal gefixt bekommen?
Ich will nicht sagen, dass NVidia Treiber fehlerlos sind. Aber sowas kommt bei denen einfach nicht vor.
Oder zumindest ist mir das nicht bekannt.

Ich mag solche Bananensoftware nicht.

Schon die treiberbedingten Abstürze der 3000er Serie zu Release vergessen, welche irrtümlicherweise erst als ein Problem mit den Kondensatoren gehandelt wurden?
 
  • Gefällt mir
Reaktionen: Kodak, Monarch2, Volvo480 und 2 andere
Das ist so ziemlich der einzige Kritikpunkt, den ich an meiner 6900xt habe - selbst heute noch habe ich 35w idle-Verbrauch weil der vRAM sich nicht runtertaktet, obwohl ich schon alle Workarounds mit xrandr und co probiert habe. Ist also nicht auf den Windows-Treiber beschränkt :D
 
  • Gefällt mir
Reaktionen: Impy81
Unti schrieb:
Schon etwas grenzwertig was AMD hier abliefert, vor allem nachdem die Basis mit der RX6900XT ja bombastisch war.
Das Ding schluckt für den verlangten Preis und die Leistung am Ende viel zu viel, egal wie hart da AMD noch "optimieren" will.
Dir ist schon klar, dass alle rdna2 Kartne sparsamer als die Touring Varianten waren?
oder hab ich Dich missverstanden?
 
  • Gefällt mir
Reaktionen: Rockstar85 und Slayn
duskstalker schrieb:
wenn wir schon dabei sind einzelne radeon Treiber nachzutesten, wann kommt der Intel arc nachtest? Die a770 LE gibt's zur Zeit für 360€ über einen Gutschein bei cyberport.
Intel hat wohl einiges getan an den Treibern, aber preislich immernoch nicht attraktiv genug.

Im besten Fall liegt eine 770 knapp über einer 6650xt. Die gibts ab 309&

Fürs gleiche Geld gibts bereits eine 6700 für 399€ eine 6700xt
 
Euphoria schrieb:
@Wolfgang
Finde es toll, dass ihr so etwas testet!
Könntet ihr sowas in Zukunft bitte auch mit 2 Monitoren testen?
Ich hatte nämlich letztens festgestellt, dass meine Karte (1080) mit zwei Monitoren nicht runtertaktet und 50W alleine statt 17W wie es eigentlich sein sollte (durch nvidia inspector erzwungen) zieht.

Trenne ich zweiten Monitor taktet die Karte auch sofort runter.
Wir testen aktuell ja schon den Dual-Monitor-Betrieb mit zwei 4K60-Displays. Mehr ist diesbezüglich im Moment eigentlich nicht geplant.
incurable schrieb:
Ja.

"In der Tat hat es keine Verbesserung beim Stromverbrauch im Leerlauf auf dem Windows-Desktop gegeben."

Und mehrere Ausgabeeinheiten hat @Wolfgang für diesen Nachtest scheinbar nicht ausprobiert.
Meinst du mehr als einen Monitor? Mit zwei Dsplays testen wir ja.
Robo-Man schrieb:
Könnt ihr bitte endlich mal Monitor mit hoher 144 Hz oder mehr verwenden?

Überall wird das als problematisch mit dem Leerlauf verbraucht beschrieben, nur hier werden noch poplige 60 Hz verwendet, wo das Problem scheinbar nicht auftaucht.
Sehr bald! :)
Wir werden den 4K60-Monitor austauschen gegen ein 4K144-Modell.
Damit werden wir den Idle-Verbrauch aber nicht nur stur in 4K144 testen, sondern stand jetzt auch in anderen Modi (4K60, WQHD144, WQHD60, FHD144, FHD60).
Esenel schrieb:
Den Dell G3223Q
Nichts besonderes, der kann aber alles was wir wollen :)
 
  • Gefällt mir
Reaktionen: Impy81, DefconDev, Robo-Man und 11 andere
Termy schrieb:
Das ist so ziemlich der einzige Kritikpunkt, den ich an meiner 6900xt habe - selbst heute noch habe ich 35w idle-Verbrauch weil der vRAM sich nicht runtertaktet, obwohl ich schon alle Workarounds mit xrandr und co probiert habe. Ist also nicht auf den Windows-Treiber beschränkt :D
Darf ich nach deinem Monitor-Setup Fragen? Ich bin in UWHQD mit 144Hz unterwegs. Meine 6800XT geht im Idle dann brav auf ihre 8 Watt runter. Ich hab das Gefühl, dass die Karten teilweise mit verschiedenen Monitoren einfach nicht zurecht kommen.
 
  • Gefällt mir
Reaktionen: xXDariusXx
bei 2+ Sceens geht der RAM tatsächlich nicht mehr runter und man ist bei 25W+
1673610601709.png


2x 1440p 144hz
 
Unti schrieb:
Der bessere TSMC Prozess regelt einfach bei NV.... und das viel zu gut..
Ist aber auch viel zu teuer sorry eine 080er für 1300-1400 mit kleinen Chip und nur 16GB nee echt madig.

Vom Kabel Desaster und unnötigen Stecker mal abgesehen nee bei der 40er Serie bin ich raus.
 
  • Gefällt mir
Reaktionen: Bänki0815, Eli0t und Inxession
Zurück
Oben