Bericht AMD Radeon RX 5700 XT: Custom Designs bei 185 Watt GPU Power im Vergleich

Was passiert, wenn Custom Designs der Radeon RX 5700 XT bei der GPU Power auf 185 Watt limitiert werden?
- Das Preis-Leistungsniveau geht in den A.... ?

Sie liegt jedenfalls dann ein wenig weiter zurück hinter der 2070 Super und ganz ehrlich, das wäre es mir dann nicht wert - soll ja auch Leute geben, die sich eine 2080ti für 1600€ kaufen und die auf Sparflamme laufen lassen, für mich wäre dann aber eine XT... rausgeworfenes Geld und die Karte für´n A*** ... dann kann man sich auch ne 5700 non-XT kaufen.

Ach PS: zu den Temps, und was uns für ein Kram erzählt wird - was das alles so "aushält"^^... da würd ich mal gar nix drauf geben, denn wenn meine RX580 auf über 82° C kommt - ist mir vor ein paar Tagen gerade passiert, da die Lüfter durch nen Treiberbug bei 700U/min blieben - hab ich Flackern, sprich Bildfehler bei Battlefield -
...mit niedrigerer Temperatur nicht - deshalb geb ich auf die 110° und son Schmarn mal lieber nix ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Banned
Banned schrieb:
Ich hab auch noch 40W-Glühbirne im Bad. Aber da ist das auch besser mit der Feuchtigkeit, glaube ich. :D


Herd/FPS --> Fritten pro Sekunde.

Made my Day :lol: :daumen:
 
Darkraven123 schrieb:
Bei so kleinen Beträgen kann man viel machen. Man macht es aber nicht weil man zu Faul ist :). Genauso bei der Grafikkarte. Sind mir jetzt 8W weniger Verbrauch wirklich x € mehr oder y dB Lauter oder z °C höhere Temperaturen Wert? Das ist überhaupt nicht rational wegen sowas eine Grafikkarte auszuschließen.

Ja, man ist schon oft faul.

Aber hier ist es aber auch nicht schwer/umständlich, sich einfach ne andere Variante zu kaufen.

Und wärmer wird die XFX auch nicht. Nur etwas lauter.

Aber ich will hier auch keinem auf die Öko-Tour kommen. Kann ja jeder machen, was er will, und wegen den paar Watt mehr geht gewiss die Welt nicht unter. :D
 
Ich sehe hier einen Haufen Grafikkarten die gleich nach Ablauf der Garantiezeit wie die Fliegen sterben werden wegen Überhitzung. :-(
Mag ja sein, dass die Chips diese Temperaturen aushalten aber was ist mit den Kondensatoren, VRMs und den Lötverbindungen?

MfG
 
  • Gefällt mir
Reaktionen: adius, SebHey, ITX-Fan und eine weitere Person
@Wolfgang - Ach bitte - erbarmt Euch und testet eine Referenz XT durch den Parcour mit nem Accelero Extreme IV - ich würd lachen, wenn das die beste Customkarte ist :D
 
  • Gefällt mir
Reaktionen: GokuSS4, zambolic und ITX-Fan
Abseits des bisherigen Testsiegers von Powercolor hat man also die Wahl zwischen einem mäßig leisen wie warmen Kompromiss (THICC) und einer flüsterleisen Kochplatte (Strix).

Was zur Hölle hat Asus da fabriziert?!

Kurzer aber spannender Artikel - der Gruppenkampf setzt den Einzeltests tatsächlich immer noch einen drauf!
 
  • Gefällt mir
Reaktionen: Banned
Cpt.Willard schrieb:
soll ja auch Leute geben, die sich eine 2080ti für 1600€ kaufen und die auf Sparflamme laufen lassen, für mich wäre dann aber eine XT... rausgeworfenes Geld und die Karte für´n A***
Sparflamme muss ja nicht heißen das sie langsamer ist. Ich lote alle meine Karten, schon seit Jahren aus. Wenn du bei der TI die Voltage von ~1,05V auf ~0,95V senken kannst, macht das durchaus Sinn. Heißt ja noch lange nicht das du dadurch Takt verlierst.
ITX-Fan schrieb:
Was zur Hölle hat Asus da fabriziert?!
Sie haben das Q-Bios vermurkst, irgendwas ist bei denen immer.
 
  • Gefällt mir
Reaktionen: heiko50 und Cpt.Willard
Da hast Du ja auch Recht, doch hier haben wir eine Karte, die wir im Powerlimit und in der Leistung limitieren müssen um diese "Ohrengerecht" ins adäquate System zu packen... das bei Customs wohlgemerkt, die min. 2Slot +85-95mm-Lüfter haben oder sogar 2,5-2,7 mit 3x 85-90... das muss man sich mal reinziehen.

Die Vorgehensweise die Du tätigst gibt ja sogar noch Leistung, wenn ich das Video von Igor, das ich gestern Nacht sah (
), da weniger Verbrauch... trotzdem mehr Power, da sie nicht so schnell ins Powerlimit läuft... ha...richtig interpretiert habe.

Hier aber, kastrieren wir die Karte doch nur und Lisa kann sich ihre blöden Präsentationsfolien in die Haare schmieren, denn ich wäre nicht excited...
 
Banned schrieb:
Wenn man den PC einige Stunden am Tag an hat, finde ich 17W schon erheblich nur für die GPU, die quasi nichts macht, außer den Desktop anzuzeigen.

Nur sind es halt maximal 6-7W Unterschied zu anderen Karten, keine 17W Unterschied. Und "Nichts macht" ist heutzutage ebenso falsch, außer Du stellst überall die Hardware-Beschleunigung aus. (Browser, Videoplayer, Elektron-Apps etc....)

Banned schrieb:
Die Effizient des Netzteil steigt übrigens erst deutlich im mittleren Lastbereich (~30-70%).

Kommt ganz auf das Netzteil an, siehe 80+ Platinum. ;)

Queediab schrieb:
Mag ja sein, dass die Chips diese Temperaturen aushalten aber was ist mit den Kondensatoren, VRMs und den Lötverbindungen?

Die Temperaturen sind in den Haupttests angegeben, bzw. in anderen Tests ersehbar. Die sind Kilometer weit von den Spezifikationen entfernt. Keine Ahnung warum Du hier Panik schiebst. :confused_alt:
 
  • Gefällt mir
Reaktionen: Rage
MaverickM schrieb:
Kommt ganz auf das Netzteil an, siehe 80+ Platinum. ;)

Platinum hat leider keine Vorgabe für Lastbereiche von 10%. Erst Titanium hat da eine Vorgabe. Btw. wieso hat BeQuiet immernoch kein Titanium Netzteil?
 
  • Gefällt mir
Reaktionen: Drahminedum
Darkscream schrieb:
Sie haben das Q-Bios vermurkst, irgendwas ist bei denen immer.
Was heißt immer, auf den grünen Karten funktioniert der Strix-Kühler ja. Mit meiner GTX 1060 von Asus bin ich ausgesprochen zufrieden und hatte deswegen auch auf deren RX 5700 geschielt. So wird das nix. Ist aber sowieso egal, solange nicht zumindest die non-XT mit zwei Slots hinkommt.
 
MaverickM schrieb:
Nur sind es halt maximal 6-7W Unterschied zu anderen Karten, keine 17W Unterschied. Und "Nichts macht" ist heutzutage ebenso falsch, außer Du stellst überall die Hardware-Beschleunigung aus. (Browser, Videoplayer, Elektron-Apps etc....)

Naja, es sind eher 7-8W ;)

Außerdem umfasst die Desktop-Messung bei CB keinen Browser etc.

CB schreibt selbst, dass es um's "Nichtstun" geht, also idle.




MaverickM schrieb:
Kommt ganz auf das Netzteil an, siehe 80+ Platinum. ;)


Ich hab mal für meines geguckt. Erreicht bei etwas über 40% den Höhepunkt:

https://www.eteknix.com/be-quiet-dark-power-pro-11-550w-power-supply-review/5/


Ob da dann im Bereich unter 100W die 7-8W durch die Effizienz rauszuholen sind, wage ich ganz stark zu bezweifeln.



Aber wie gesagt. Soll jeder machen, wier er meint.


Ich frage mich halt, warum es beim einen Modell/Hersteller geht und beim anderen nicht.

Aber evtl. wird das wirklich noch übers BIOS geändert.



PS: Die Temperaturen finde ich teilweise auch bedenklich. Desto öfter läuft die Karte dann mit hoher Drehzahl und verbraucht wieder mehr Strom auf lange Sicht. :D

Von der Haltbarkeit ganz zu schweigen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SeniorWitti
Darkscream schrieb:
Wenn eine Premium Karte alla Strix, in solch einem Zustand das Werk verlassen kann, kann ich auch drauf verzichten.

Produktionsfehler können immer mal vorkommen. Klar ist das ärgerlich.

Hatten die bei EVGA nicht mal komplett bei ner Charge die Wärmeleitpads vergessen, oder hab ich da was falsch in Erinnerung?


Generell scheint es aber so, dass sich ASUS nicht so viel Mühe gibt, die Kühler anzupassen.

Bei der 1080Ti z.B. war die Strix super. Bei der 1080 nicht. Bei der 1070 wohl aufgrund der geringeren Anforderungen wieder okay.
 
Darkraven123 schrieb:
Platinum hat leider keine Vorgabe für Lastbereiche von 10%. Erst Titanium hat da eine Vorgabe.

Naja, aber wer kauft schon so ein überdimensioniertes Netzteil!? Selber Schuld, wenn man im Idle unter die 10% Last fällt. ;)

Banned schrieb:
Naja, es sind eher 7-8W ;)

Je nach RX5700 Modell und Vergleichskarte. :p

Banned schrieb:
Außerdem umfasst die Desktop-Messung bei CB keinen Browser etc.

Joar, es ging aber um deine Aussage "macht nix außer Desktop darstellen", was halt falsch ist. Mein Rechner braucht aufm Desktop beim Arbeiten rund 100W Ausgangsleistung, da machen 6-7W (oder 7-8W ;)) mehr oder weniger das Kraut auch nicht mehr Fett.
 
  • Gefällt mir
Reaktionen: Banned
MaverickM schrieb:
Naja, aber wer kauft schon so ein überdimensioniertes Netzteil!? Selber Schuld, wenn man im Idle unter die 10% Last fällt. ;)

Hey ich hab ein Seasonic Ultra Titanium 650W! #SafeThePlanet #SafeThePenguins :)
Aber ja. Sinn macht das nicht wirklich :)
 
@Banned Naja, im Bereich von 1-2 Watt pro LED wird man schon sein. 5 oder mehr auf der Strix halte ich nicht für unrealistisch. Und wie groß der Unterschied an der Dose ist hänge von Netzteilgröße und dem System ab. Bei den winzigen Beträgen von denen wir reden kann es prozentual mit Sicherheit etwas ausmachen.
 
Vielen Dank für diesen super Test! :)

Mich persönlich würde noch ein ausführlicher Test bezüglich UV und UC interessieren, um die Effizienz der Architektur besser einordnen zu können. Denn die Karten scheinen ja oberhalb ihres Sweatspots zu takten, jedenfalls ist die Effizienz mit Rücksicht auf die 7 nm ja nicht so hoch wie erhofft.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mr_Tee, v_ossi, SebHey und eine weitere Person
Danke für die Tests.

Von allen bis jetzt getesteten Karten finde ich die Sapphire rx 5700 pulse non X mit dem A-Bios am interessantesten. UV-, Watt- und Lautstärke-Tests für die non X würden mich auch sehr interessieren.
 
  • Gefällt mir
Reaktionen: Mr_Tee
12,5 dB lauter und trotzdem 10°C wärmer als die Custom-Partner bei gleicher GPU-Power. Da fragt man sich ernsthaft, wozu AMD überhaupt ein Entwicklungsbudget für ein Referenz-Design einsetzt, wenn dabei so eine Grütze bei raus kommt. :rolleyes:
 
Zurück
Oben