Test Radeon RX 7800 XT & 7700 XT im Test: AMDs RDNA-3-Mittelklasse für 549 und 489 Euro im Benchmark

Nobbi Habogs schrieb:
Nur mal zur Info, wie ich meine RX 7800 XT auf max. 180W gedrosselt habe ohne dabei viel Leistung zu verlieren (ca. -12%):
https://www.reddit.com/r/Amd/comments/1afspn4/rx_7800_xt_optimizing_efficiency_huge_effect/
Brauchst du die 1070mV bei 1900MHz für Stabilität? Ich würde annehmen, dass du bei so niedrigen maximalen Taktraten deutlich weiter undervolten kannst. Denke das geht noch spürbar flotter und/oder sparsamer? :)

Mit max 2250MHz bei 800mV (im Treiber, was die Karte aus dem Wert macht, ist eine andere Geschichte) braucht die 7800xt bei mir in Witcher 3 nextgen mit Raytracing (was dazu neigt, fröhlich am Powerlimit zu kleben) auch nur 205 Watt und verliert dabei gegenüber Stocksettings nur 2.5% (Details hier). Viel Lesestoff und Versuche rund um Undervolting und Overclocking mit der 7800xt bei Interesse hier.
 
  • Gefällt mir
Reaktionen: anarchie99
Flash_Muc schrieb:
Brauchst du die 1070mV bei 1900MHz für Stabilität? Ich würde annehmen, dass du bei so niedrigen maximalen Taktraten deutlich weiter undervolten kannst. Denke das geht noch spürbar flotter und/oder sparsamer? :)

Mit max 2250MHz bei 800mV
bei meiner powercolor kann ich 700mv einstellen sobald ich max 2400mhz einstelle. das macht an der leistungs aufnahme aber keinen unterschied zu 1,08V

man kann ja nur den letzten pstate einer Spannung\frequenz kurve ändern. wenn aber dieser Wert garnicht erreicht wird macht es spannungs technisch nix. vielleicht müsste ich mit den Mhz weiter runter gehen um erwas von der niedrigen spannung zu haben.

aber mit 2,4ghz und 1,05V verbraucht die Karte nur 210watt und ist genauso so schnell wie die referenz nur mit 40watt weniger verbrauch
 
  • Gefällt mir
Reaktionen: anarchie99
Northstar2710 schrieb:
bei meiner powercolor kann ich 700mv einstellen sobald ich max 2400mhz einstelle. das macht an der leistungs aufnahme aber keinen unterschied zu 1,08V
Bei mir ist es auch eine Powercolor (Red Devil) und tiefer zu undervolten macht in dieser Taktregion bei mir durchaus noch einen Unterschied. 2400MHz auf niedrigstem UV läuft bei mir in Witcher 3 nicht dauerhaft stabil, aber ~2325 passen noch. Ich habe kurz meinen Benchmark 2x mit CapFrameX mitgemessen, 3. und 4. Eintrag. Von der Performance tut es sich erwartungsgemäß nicht viel (das könnte man auch mit Messungenauigkeit erklären), aber die Variante mit 1080mV genehmigt sich ~30-35mV mehr und braucht damit über 12W mehr Leistung (Messwerte jeweils aus dem Sensortab). Ob nun 700, 800 oder 900 mV spielt aber nun wirklich keine Rolle, irgendwo zwischen 960 und knapp über 1000 scheint die Grenze zu sein (die ich nicht genauer ermittelt habe). Dazu noch die 1900 Mhz, das hatte mich interessiert, und ein paar Messungen, die ich schon hatte (eine davon mit dem flotteren Profil und 60fps limit via rtss).

CapFrameX_witcher3_effizienz.jpg

Die 1900Mhz bringen schon noch etwas beim Verbrauch, kosten in diesem Fall aber zu viel Leistung, die benötigt würde, um das Spiel flüssig darzustellen. In weniger fordernden Spielen könnte man aber mal austesten, ob das mit Framelimit noch einen spürbaren Unterschied macht.
(auch bei der 1900 Mhz Variante spielt es keine Rolle ob 700 oder 800 mV)


Northstar2710 schrieb:
aber mit 2,4ghz und 1,05V verbraucht die Karte nur 210watt und ist genauso so schnell wie die referenz nur mit 40watt weniger verbrauch
Ja, in einem ähnlichen Bereich bin ich auch rausgekommen, je nach Spiel, in Witcher 3 2450 max mit 1035mv (mit VRAMm OC sind das dann 2.5% über Stocksettings), in Avatar läuft das setting dagegen nicht, da brauche ich für 2500 Mhz 1065mV. Mit einem Framelimiter lässt sich der Verbrauch dann auch nochmal spürbar reduzieren.
 
  • Gefällt mir
Reaktionen: anarchie99 und coxon
Flash_Muc schrieb:
in Avatar läuft das setting dagegen nicht, da brauche ich für 2500 Mhz 1065mV. Mit einem Framelimiter lässt sich der Verbrauch dann auch nochmal spürbar reduzieren.
ich bin damals bei 1055 gelanded. Da uch mit dieser spannung sehr gutes Uv mit 2,4ghz habe und wenn ich wollte auch max frequenz einstellen konnte so das die karte ihr power Budget(305watt) ausreizen konnte. Meiner erfahrung ging das UV mit OC bios besser als mit dem Silent bios. Im OC bios ist, wer will, auch 5% mer powerlimit zur verfügung +\- 15%.
 
Northstar2710 schrieb:
Meiner erfahrung ging das UV mit OC bios besser als mit dem Silent bios.
Das habe ich genauso beobachtet, das OC Bios war auch sparsamer bei gleichem UV/Taktlimit. Wozu das Silent BIOS noch gut ist, wenn man selbst eine niedrigere Lüfterkurve einstellen kann, konnte ich noch nicht herausfinden.
Northstar2710 schrieb:
Im OC bios ist, wer will, auch 5% mer powerlimit zur verfügung +\- 15%.
Bei mir waren es je nach Powerlimit-% nur 2-4 W - was natürlich nicht heißt, dass das bei der Hellhound nicht ein bisschen anders sein kann und Powercolor dem etwas stärkeren Kühler der Rede Devil im Silentmodus etwas mehr Strom zumutet.
 
Die 1070mV lass ich einfach so, weil ich weiß es ist zu 100% stabil und das Ergebnis ist trotzdem gut. Die paar Watt sind mir sowieso egal. Hauptsache die Karte frisst keine 250W mehr. Wenn ich mehr Leistung brauche, werde ich die Karte vermutlich so einstellen, dass sie sich max. 220W genehmigen darf, was in Spielen meist reale 200W sind.
 
jonderson schrieb:
Frage für nen Kumpel mit 400W Netzteil
die Angaben sind nur für die Grafikkarte und 400W könnte knapp werden, je nachdem welche CPU und welches Netzteil genau verbaut ist, mit nem guten 500/550W wäre man auf der sicheren Seite bei beiden Karten
 
naja wenn man ein 75 Watt GPU verwendet,dann geht nen 400 Watt Netzteil durchaus.Kommt auf die CPU dann noch drauf an.
 
latiose88 schrieb:
naja wir sind hier im 7700XT/7800XT Test Thread, denke er meint dann wohl auch eine von diesen und beide schlucken um die 250W, könnte mit einer 65W TDP CPU noch hinhauen und müsste man testen, sofern es ein gutes 400W Markennetzteil ist was diese auch liefert
 
@jonderson 400watt ist einfach zu wenig. Ich hatte die 7800xt kurzzeitig an einem 450watt netzteil mit einer 65tdp cpu 8700g laufen . Ja es hatte funktioniert wenn man die gpu drosselt. Und /oder ein gescheites Framelimit setzt. Aber einmal nicht aufgepasst, treiber neu installiert und ein dpiel im gpu limit angeschmissen zog das system geschmeidige 500watt aus der Steckdose und das Netzteil hat abgeschaltet.

Da soll dein Kumpel sich einfach ein neues Netzteil kaufen. Die 70€ zusätzlich sollte er doch noch auftreiben können.
 
Also bei mir ist sowas nie passiert. Ich selbst habe ein ryzen 9 5950x das ich auf 120 Watt gedrosselt habe und eine 75 Watt gpu. Und da ist mit meinen 450 Watt Netzteil sowas noch nie passiert. Und ich habe ein 80 + Gold Netzteil. Scheinbar ist da was schief gelaufen oder es ist wirklich eine gpu die mehr verbraucht hatte. Aber wenn man es richtig anstellt dann geht das sehr wohl. Ich selbst betreibe wenn ich ehrlich bin zu dem das ich die gpu nicht wirklich mit den alten games auslaste nen fps limit. Mit afterburner habe ich in letzter Zeit sogar die gpu gedrosselt gehabt. Also brauche ich noch nicht mal 75 Watt. Zuvor habe ich aber sowas nicht eingesetzt gehabt und es hat es ebenso so ein Verhalten nicht gezeigt gahabt. Und teilweise hat die CPU richtung 200 Watt an Strom verballert gehabt.

Teilweise sogar gpu und CPU voll ausgelastet gehabt. Die CPU im Hintergrund voll ausgelastet und die gpu durch das zocken. Und da war auch nix gewesen.
 
latiose88 schrieb:
Ich selbst habe ein ryzen 9 5950x das ich auf 120 Watt gedrosselt habe und eine 75 Watt gpu
was willst du mit deiner 75watt gpu. Die gibt es hier nicht. nur 7700xt/7800xt. Und wer interresse an solch einer Karte hat, spielt nicht in 720p, niedrig preset. Was dir ja reicht. Und auch nicht jeder weiss wie man sein system extrem drosselt. Wobei man dann auch manchmal zu anderer Hardware greifen kann.

für 75watt kannst du im rtx3050 6gb thread was sagen.
Ergänzung ()

dazu kommt das keiner weiss um was für ein 400watt netzteil es sich handelt, billiger china kracher, high qualiti gold netzteil oder wie alt dieses ist.
 
Ja du hast recht. Wollte damit sagen das es in gewissen Umständen reicht, aber jeder hat da ja andere Hardware und Anforderung. In dem Fall wie du schreibst ändert es sich dann doch.
Nun ja es kommt immer auf die Sichtweise je nach dem an.
Und nein ich muss nicht auf low und 720p zocken. Das liegt daran das ich nur alte games zocke. Da habe ich das Problem erst garnicht.
Andere fahren wieder anderst. Auch nicht welche Anforderung diese wo 400 Watt Netzteil hat, kann man auch nicht genau sagen.

Spielt jedoch keine rolle weil es ja um diese gpus geht.
 
Du meinst also, dass zwei Grafikkarten, die auf der selben Architektur und auf dem selben Chip basieren, auf einmal mit neuen Treibern und Spielen sich völlig anders in Relation zu einander verhalten?

Die 6800XT hat ja nur ein paar Einheiten mehr und etwas mehr Takt, sonst ist alles gleich, damit sollte auch die Differenz mit neuen Treibern und Spielen nicht großartig ändern. Hier reden wir aber von 17 zu 5 Prozent. Das sind 12 Prozent Differenz. Wo kommen die her? Für mich sieht das eher nach dem Wechseln der Messmethoden aus, oder ähnliches, deswegen habe ich die Frage auch an den @Wolfgang gestellt.
 
Convert schrieb:
Du meinst also, dass zwei Grafikkarten, die auf der selben Architektur und auf dem selben Chip basieren, auf einmal mit neuen Treibern und Spielen sich völlig anders in Relation zu einander verhalten?
Da Antwort lautet hier wirklich, dass sich das Performance-Pro-Watt-Verhältnis zwischenzeitlich auf ein anderes Spiel bezogen hat. Damit kann sich da potenzial das Verhältnis natürlich auch deutlich ändern, je nachdem wie die karten in dem Spiel abschneiden.

Zudem ist es denkbar, dass (ich vermute) das Benchmarkergebnis der RX 6800 im alten Test nicht so ganz korrekt gewesen ist. Zumindest hat sich ja nur die 6800 mehr verschoben, die anderen Karten sind im Verhältnis zur 6800 Xt ja genau da geblieben, wo sie schon immer waren.
 
Wolfgang schrieb:
Da Antwort lautet hier wirklich, dass sich das Performance-Pro-Watt-Verhältnis zwischenzeitlich auf ein anderes Spiel bezogen hat. Damit kann sich da potenzial das Verhältnis natürlich auch deutlich ändern, je nachdem wie die karten in dem Spiel abschneiden.
Wäre es dann nicht sinnvoll das Performance-Pro-Watt-Verhältniss aus mindestens 5 Spielen zu bilden, um hier eine breitere Basis zu haben?
Wolfgang schrieb:
Zudem ist es denkbar, dass (ich vermute) das Benchmarkergebnis der RX 6800 im alten Test nicht so ganz korrekt gewesen ist.
Das denke ich auch, den so große Unterschiede zwischen zwei Tests bei so kleinem Unterschied zwischen den Karten (Architektur und Aufbau) ist sonnst kaum erklärbar. Ich hab ja zuerst gedacht, dass vielleicht die Messung der Stromaufnahme irgendwie geändert worden ist. Aber vielleicht kann man für mehr Transparenz unter den Effizienzbalken auch den mittleren Wert der Stromaufnahme bei den Spielen, die für die Effizienzmessung herangezogen wurden, dazu schreiben. Dann weiß man, ob sich an der mittleren Stromaufnahme was geändert hat oder an den FPS, wenn man frühere und neuere Ergebnisse vergleicht
 
Zurück
Oben