Bericht AMD Radeon RX 5700 XT: Custom Designs bei 185 Watt GPU Power im Vergleich

Finde den Test irgendwie ungenau.
Wer taktet denn bitte seine Graka runter wenn er damit Spielen möchte?

Wen, dann sollte man die Lüfter bzw die Temperatur anpassen und bei der gewünschten Temp die Leistung sowie Lautstärke messen.

btw, why the fuck kostet die Strix 500€ ?
 
Halus schrieb:
Wer taktet denn bitte seine Graka runter wenn er damit Spielen möchte?
Ich, weil 3% weniger Leistung nicht spürbar sind, dafür die Karte aber tlw. um einiges leiser ist.
 
  • Gefällt mir
Reaktionen: amorosa, Jan, lokked und 5 andere
Halus schrieb:
Finde den Test irgendwie ungenau.
Wer taktet denn bitte seine Graka runter wenn er damit Spielen möchte?

Wen, dann sollte man die Lüfter bzw die Temperatur anpassen und bei der gewünschten Temp die Leistung sowie Lautstärke messen.

btw, why the fuck kostet die Strix 500€ ?

Man will am liebsten wenig Lärm, kühle Temps und hohen Takt, aber diese Sachen schließen sich alle gegenseitig aus bzw. jede Karte ist ein Kompromiss. Ich denke CB ging es darum zu testen, wie leistungsfähig die Kühler sind und dazu muss man halt einen oder zwei der Parameter festlegen, damit man vergleichen kann. CB legt quasi den Takt fest, indem sie die Leistungsaufnahme vorgeben (theoretisch müsste jede Karte bei gleichgutem Silizium dann auch gleich hoch takten). Man hätte halt auch sagen können, man legt eine Temp fest und guckt, wie leise die Karten diese Temp halten können und mit welchem Takt. Oder man hätte eine Lautstärke vorgeben können und misst dann, wie heiß die Karten werden. Oder oder oder. Für irgendwas musste sich CB halt entscheiden.
 
  • Gefällt mir
Reaktionen: Jan, Dandelion und Sennox
Halus schrieb:
Wen, dann sollte man die Lüfter bzw die Temperatur anpassen und bei der gewünschten Temp die Leistung sowie Lautstärke messen.
Sämtliche Karten, ob im Silent oder im OC BIOS, unterscheiden sich doch so schon nur um ca 5% untereinander, das ist nichts, was man beim Spielen merken würde.

Und der Test ist in erster Linie dazu da um zu zeigen, wie gut die einzelnen Kühler der Karten sind, und dazu muss man logischerweise alle auf den gleichen Verbrauch bringen. 185W ist dabei der Verbrauch der Referenzkarte.

So sieht man z.B. dass die Asus Karte zwar zu den leisesten Karten gehört, aber was die Temperaturen angeht nicht wirklich viel besser als das Referenzmodell ist, während die Nitro+ genau so leise aber bei den gleichen 185W sehr viel kühler ist.
Daraus kann man sich ableiten, dass die Nitro+ eindeutig den besseren Kühler hat, man also wenn man die Karte übertakten möchte, lieber diese statt der Asus nimmt, wenn die Karte gleichzeitig möglichst leise bleiben soll, denn bei der Asus müsste man bei 10W mehr bereits die Lüfter höher drehen durch die hohen Temps.
 
Zuletzt bearbeitet:
Halus schrieb:
Finde den Test irgendwie ungenau.
Wer taktet denn bitte seine Graka runter wenn er damit Spielen möchte?
Ich auch. Weil die Taktraten weit über dem Sweetspot liegen. Ein paar MHz weniger und man kann die Spannung deutlich absenken. Das reduziert die Leistungsaufnahme und die Lautstärke teils erheblich.
Meine RX5700XT im Referenzdesign habe ich um 44 MHz runtergetaktet (eigtl. nur den Maximalen Boost reduziert), was es mir ermöglicht hat die dann maximal anliegenden 1980 MHz mit 1040mV statt 1165mV zu fahren. Dadurch kann die Karte im Schnitt sehr viel höher takten ohne das PT zu reißen, was mehr Leistung bei gleichem Verbrauch bringt. Ich habe allerdings das PT noch um 12% gesenkt, was gleiche Leistung wie @Stock bei ca. 25W weniger Leistungsaufnahme und Abwärme bringt.
 
  • Gefällt mir
Reaktionen: NMA, McTheRipper, v_ossi und eine weitere Person
Halus schrieb:
Wer taktet denn bitte seine Graka runter wenn er damit Spielen möchte?

Ich auch, aber anders. 120FPS reichen mir in nahezu jedem Spiel. In CS:GO bspw. taktet meine Karte dann mit nur 680-900mhz statt maximalem Boost auf 1506mhz. Auch bei anderen Spielen habe ich nahezu immer dem Cap mit RTSS auf 120FPS stehen. Mehr bringt mir nichts, seh' ich eh nicht und dann hab ichs lieber leiser und sparsamer als unnötig am Limit.
Ich spiele aber generell auch sehr viel lieber mit einer recht statischen Framerate als mit "FlatterFPS" von irgendwas zwischen 80 und 300+ je nach Situation ingame. Mag eine etwas altbackene Art sein, aber vom Gefühl her passt dann in jeder Lage alles und ich muss mich nicht dauernd mit aufgrund von schwankenden FPS neu gewöhnen. Viele Spiele reagieren auch heute noch sehr anders wenn die FPS stark schwanken.
Find' so einen Test prima. So lässt sich das besser kategorisieren und diese Boosttechniken, wenn der Takt eh' nicht gehalten werden kann verstehe ich bis heute eher wenig.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cpt.Willard, v_ossi und GerryB
Alle Customs auf 40db würde sicher nen Unterschied zeigen weil die Nitro deutlich kühler wäre als ne Kleine.
Wenns kühler ist dürfte auch allmählich der eff.Takt steigen von zusätzlich besserem UVen ganz zu schweigen.
mit 40dB ungefähr so wie bei GN:
Gigabyte RX 5700 XT Gaming OC Review: Thermals, Noise, & Value vs. Pulse & Evoke | GamersNexus - Gaming PC Builds & Hardware Benchmarks

Davon abgesehen kann die Nitro sicher auch komfortabel 200W.(GPUonly)
Ob dann 220W viel mehr Fps bringen ist für 24/7 fraglich.
 
Zuletzt bearbeitet:
Sharangir schrieb:
@Roche
Danke, und ne, das habe ich eben nicht erwartet..
Aber dadurch werden die Ergebnisse völlig unbrauchbar!

Die Tatsache, dass da überall billige Knetmasse als TIM verwendet wird und gewisse Fertigungstoleranzen vorhanden sind, wird schon alleine bei 10 STRIX-Modellen dazu führen, dass diese um 5-10°C auseinanderliegen unter Laborbedingungen.


Das gleiche gilt auch bei optischem Equipment.. Ein Test mit einer einzigen Linse ist völlig nutzlos, wenn da massive Streuungen zu erwarten sind. (Siehe nur mal die Lensrentals Blogs, wo jeweils 10+ Objektive verglichen werden)
Bei Linsen sind Streuungen zu erwarten lol
 
  • Gefällt mir
Reaktionen: Sharangir
Darkscream schrieb:
Sparflamme muss ja nicht heißen das sie langsamer ist. Ich lote alle meine Karten, schon seit Jahren aus. Wenn du bei der TI die Voltage von ~1,05V auf ~0,95V senken kannst, macht das durchaus Sinn. Heißt ja noch lange nicht das du dadurch Takt verlierst.

Sie haben das Q-Bios vermurkst, irgendwas ist bei denen immer.

kann man eigentlich wie bei einer CPU ein Offset einstellen? ich meine nämlich, dass die graka deutlich unter 0,7V liegt. da wär doch ne feste Spannung von 0,95 nicht so schlau, oder?
 
Was bedeuted den nun das für die Leistung der Grakas?
Ich will mir die Pulse kaufen aber 5db Unterschied ist doch ziemlich viel.
 
GokuSS4 schrieb:
kann man eigentlich wie bei einer CPU ein Offset einstellen? ich meine nämlich, dass die graka deutlich unter 0,7V liegt. da wär doch ne feste Spannung von 0,95 nicht so schlau, oder?
Bei meiner RX 480 kann ich auch ein Offset für die Spannung setzen. Das funktioniert aber nicht so gut, weil die Spannung in den niedrigeren Powerstates dann zu gering ist. Wenn ich beispielsweise meine Karte von den standardmäßigen 1,15V im höchsten Powerstate P7 auf 1,07V undervolten will und demnach ein Offset von 0,08V setze, wird auch zB der Powerstate P4 von 0,8 auf 0,72V verringert, was dann zu wenig ist für einen stabilen Betrieb.

Deswegen ist es besser, nur den höchsten bzw die zwei höchstens P-States zu undervolten.

Die Standardspannung von GPUs liegt mWn meistens knapp über 1V, bei der RX 480 zB sinds 1,15V.
 
  • Gefällt mir
Reaktionen: v_ossi
Taxxor schrieb:
...
Daraus kann man sich ableiten, dass die Nitro+ eindeutig den besseren Kühler hat, man also wenn man die Karte übertakten möchte, lieber diese statt der Asus nimmt, wenn die Karte gleichzeitig möglichst leise bleiben soll, denn bei der Asus müsste man bei 10W mehr bereits die Lüfter höher drehen durch die hohen Temps.
Bzw. dass man bei der Nitro+ noch mehr Reserven hat und die Lüfter noch leiser laufen lassen könnte,
oder man freut sich darüber dass die Karte allgemein kühler läuft denn kühle Chips sind glückliche Chips ^^
 
CrustiCroc schrieb:
Nvidia Angst vor AMD ? Nope. Wohl eher andersrum.
Warum sollte AMD Angst vor nVidia haben? Oder warum sollte nVidia Angst vor AMD haben? Beide Fragen sind in dem Fall dumm, sofern sich keine Seite auf ihren Erfolgen ausruht und danach hat es aktuell eben nicht den Anschein.

Was ich nicht ganz verstehe und DAS muss mir einer hier mal wirklich erklären warum man das animmt, ist die Annahme, dass ja AMD jetzt, wo sie "aufgeholt" haben plötzlich die Entwicklung einstellt und nicht weiter arbeitet, sondern nur nVidia oder Intel - wobei bei denen die Schublade mit der Hammer CPU immer noch klemmt.

Genau so andersherum: Wer denkt denn, dass nVidia das eine Jahr nicht nutzt um ihre GPUs weiter zu entwickeln und ggf. auch was besseres auf dem Markt zu haben? Aber da geht es hier ja bei dir schon los:

CrustiCroc schrieb:
Die sitzen ganz entspannt da, haben mal eben ( weil sie es so fein nach Belieben dosieren können ), die Super Karten nachgeschoben. ( Daher hatte AMD Angst, und hat vorm Navi Release die Preise gesenkt ).
Ach, die sitzen ganz entspannt da? Nun, wären sie wirklich so entspannt gewesen, dann hätten sie die Karten eigentlich garnicht veröffentlichen müssen, denn am Ende reichte es praktisch nur für ein Patt mit etwas günstigeren Preisen von AMD. Und auch jetzt ist es praktisch weiterhin ein Patt. Wirklich etwas verändert hat sich nicht.

Und AMD Angst vor den Superkarten? Im Endeffekt war es sogar berechenbar, was da kommt und zu welchen Preisen und ich denke zum Beispiel nicht, das AMD deswegen einfach die Preise mal gesenkt hat. Im Endeffekt haben sie auf die Preise von nVidia nur reagiert. Da von Angst zu schreiben ist pures Geschwafel.

Genauso wie das nVidia Angst vor AMD gehabt hätte und deswegen die Super-Karten raus gebracht hat. Im Endeffekt war das mal wieder nur das typische "stören" des anderen und DAS haben beide Firmen über die Jahre immer wieder drauf gehabt.

Und nein, nVidia kann nicht nach belieben fein dosieren. nVidia hat ihre Chips und muss mit diesen Arbeiten, alleine die 2080 Super spricht gegen deine Aussage, denn dort konnte man gerade mal 128 zustätzliche Shader aktiv schalten, ansonsten hätte man nämlich direkt auf den dicken Chip gehen müssen.

CrustiCroc schrieb:
Und jetzt können sie sich das wieder relativ entspannt anschauen.
Ach können sie das? Klar, sie sehen jetzt wozu RDNA1(!) fähig ist.

CrustiCroc schrieb:
Bevor Big Navi so langsam das Licht der Welt erblickt, haut Nvidia sein 7nm Pendant raus.
Und AMD haut in Big-Navi RDNA2(!) raus, so was nun?

CrustiCroc schrieb:
Und AMD kann Angst davor bekommen, wenn Nvidia denen zeigt wie 7nm Effizienz geht.
Was will nVidia ihnen zeigen? nvidia nutzt aktuell einen auf ihre GPUs zu geschnittenen Prozess, der selbst bereits eine Verbesserungen gegenüber dem 16nm-Prozess mit brachte. Klar nicht ganz so klein wie 7nm, aber eben doch eine Verbesserung gegenüber dem 16nm-Prozess vorher.

CrustiCroc schrieb:
Das jeder Big Navi gegen eine 3080 ( Ti ) und RDNA Gen.1 gegenüber Nvidias 7nm Midrange nur die Rücklichter sehen wird ist selbstredend.
Dann informiere dich mal besser. Bei "Big-Navi" wird von Navi21 und Co gesprochen und auch von RDNA2, nicht von 1.

CrustiCroc schrieb:
Und diesen Release kann Nvidia dann dosiert ( Preis und Releasezeitpunkt ) und nach Bedarf raushauen.
Ach, können sie das?

Nehms mir nicht übel, aber einige von euch sollten ihre Glaskugel mal zur Hexerwerkstatt bringen und neu kalibrieren lassen.

Man ließt ständig wie einfach es doch Intel und nvidia hätten AMD zu übertrumpfen und dass sie das ja nur nicht machen weil sie - Ja warum denn? Bei Intel wurde hier oft darüber schwadroniert, dass ja Intel nur eine Schublade öffnen muss und da die nächste hammer geile CPU drin ist, die mit AMD den Boden aufwischt. Statt dessen fährt Intel - mal wieder - eine Schmutzkampange feinster Sorte und zeigen, dass sie sich selbst für solche Sachen nicht zu Schade sind. Und nVidia steigt bei einer GPU auf die nächst größere um, kanibalisiert damit quasi die eigene Oberklasse und versucht diese durch 128 Shader noch zu "retten" vor der eigenen geschaffenen Konkurrenz.

Klar, Intel und nVidia sind sehr gut aufgestellt, nur was "gemütlich" anrichtet, kann man ja aktuell bei Intel gut sehen, da wird man nämlich nun zum unsympathischen Troll. Ich hoffe ehrlich gesagt, dass nVidia sich nicht gemütlich auf ihrem geringen Vorsprung, den sie noch haben, ausruhen und denken, dass sie ja alles so locker flockig gemütlich packen, sondern, dass sie AMD ernst nehmen. Es könnte sonst sehr schnell eben sein, dass AMD nicht nur gleichzeiht, sondern auch überholt.

Natürlich, AMD hat noch so einige Hausaufgaben zu machen, aber sie machen sie und sie werden sich auf ihren temporären Erfolgen aktuell nicht ausruhen, wer das denkt, der ist echt naiv!
 
  • Gefällt mir
Reaktionen: Sennox und Drahminedum
Teralios schrieb:
Bei Intel wurde hier oft darüber schwadroniert, dass ja Intel nur eine Schublade öffnen muss und da die nächste hammer geile CPU drin ist, die mit AMD den Boden aufwischt. Statt dessen fährt Intel - mal wieder - eine Schmutzkampange feinster Sorte und zeigen, dass sie sich selbst für solche Sachen nicht zu Schade sind. Und nVidia steigt bei einer GPU auf die nächst größere um, kanibalisiert damit quasi die eigene Oberklasse und versucht diese durch 128 Shader noch zu "retten" vor der eigenen geschaffenen Konkurrenz.

AMD hat Intel in sämtlichen Bereichen in Grund und Boden gestampft. Intel hat bis mindestens 2020 nichts brauchbares in der Hinterhand. Und dann werden sie gegen Zen 4 antreten müssen.

NVidia befindet sich dagegen keineswegs im Winterschlaf. Die GTX/RTX 3000er Reihe wird sicherlich sehr interessant. Dass man jetzt um Navi direkt zu kontern direkt die Super Karten nachgeschmissen hat, zeigt doch nur, dass nVidia keinesfalls kampflos das Feld räumen will. Und gleichzeitig auch, wie hoffnungslos überteuert die Karten waren /sind, wenn man mal eben die gesamte Leistungsklasse nach unten schieben kann.
 
Oder man denkt über
1. über P/L nach. Ist ne 2070s tatsächlich 25% schneller als ne Raw2 für 412€?
2. wären net 105€ mehr bei Ram+CPU+SSD besser angelegt? (statt Ryzen 2600 ein 3600)
3. kompatible HDR-Monis und Freesync am TV (gerade mit Samsung)
4. TrixxBoost vs. DLSS (TB geht bei allen Games)
5. geringeres Inputlag bei AMD

edit: evtl. geht TB nur mit Sapphire-ID. Das fiel am Anfang mit den Ref. net auf, weil Alle die gleiche ID hatten.
Insofern wäre die Nitro ggü. der Devil die bessere Wahl für 4k.
Außerdem unterstützt TB nur 16:9.
Für nonSapphire-Grakas wäre alternativ eine Auflösung von 1800p sinnvoll.(geht auch ohne TB)
 

Anhänge

  • AntiLag.png
    AntiLag.png
    380,9 KB · Aufrufe: 328
Zuletzt bearbeitet:
MaverickM schrieb:
Dass man jetzt um Navi direkt zu kontern direkt die Super Karten nachgeschmissen hat, zeigt doch nur, dass nVidia keinesfalls kampflos das Feld räumen will.
Hab ich ja quasi schon selbst festgestellt:
Teralios schrieb:
Nun, wären sie wirklich so entspannt gewesen, dann hätten sie die Karten eigentlich garnicht veröffentlichen müssen, denn am Ende reichte es praktisch nur für ein Patt mit etwas günstigeren Preisen von AMD.

MaverickM schrieb:
NVidia befindet sich dagegen keineswegs im Winterschlaf.
Denke ich auch. nVidia wird da alles andere als Entspannt drauf reagieren. Sondern daran arbeiten, dass sie weiterhin gute Grafikkarten abliefern.

Denn sollte nVidia da jetzt ganz entspannt ran gehen, könnte ihr Vorsprung - wie geschrieben - ruck zuck weg sein.
 
Warum so viel Rummel um eine Karte, die nicht mal alle Funktionen bietet, die die Konkurrenz schon länger anbietet - auch wenn das heute in Spielen wenig genutzt wird-kommt schnell die Zeit, wo das zum aktuellen Spiel einfach dazu gehört. In der mittleren Preisklasse wäre das auch so ok- aber für die Oberklasse ...?!
Ich denke dabei an die früheren Zeiten, wo ATI (jetzt AMD) die schnellste Grafikkarte hatte, die aber den Pixel Shader 3 nicht konnte. Alle darauf folgenden Spiele unterstützten diese neue Funktion. Also sehr schnell aber bereits veraltet. Und genau so verhält es sich mit der neuen Oberklasse von AMD. Von dem was sie kann, dürfte sie nur 250,-280,- Euro kosten.
 
Was für ein Dummfug über mir, als ob Raytracing in 2060-2080 nutzbar wäre ohne massive Ruckelorgien zu produzieren. In der jetzigen Implementation ist das bestenfalls eine Techdemo.
 
  • Gefällt mir
Reaktionen: Sennox, MaverickM, ITX-Fan und 4 andere
Zurück
Oben