Test Radeon RX Vega 56 Strix im Test: Leiser Betrieb zu Lasten der Temperatur

So lange AMD nicht in der Lage ist, Gaming-Treiber herzustellen die dann halt auch funktionieren, ist die Ganze Sache hinfällig. Schon vor jeder preislichen Betrachtung.
 
So lange AMD nicht in der Lage ist, Gaming-Treiber herzustellen die dann halt auch funktionieren
Also der Adrenalin Treiber funktioniert mit meiner Vega ohne Probleme. Was gibt es denn für Probleme?
 
DasUnding schrieb:
Der Trick ist die Speichercontroler Spannung auf unter 1V zu stellen - so 900 oder 950mV, es spielt keine Rolle, ob es 950 900 oder 800 sind, es scheint der selbe Endwert zu sein.

Afaik ist das die Spannung des "SoC" (Interposer). Dieser sollte eher etwas höher gestellt werden um stabilen HBM OC zu bekommen.
Die Spannung des Chips bleibt damit eigentlich ungerührt. Aber Vega verfügt über viele Mess-Stellschrauben was Frequenz/ Temperatur und Powerlimits angeht.
Vielleicht verringert man ja einfach mit der Spannung die Aufnahme vom Speicher/ Interposer und es bleiben für den Chip mehr Watt übrig.

Wenn ich auf 1V Chip gehe und 1650MHz einstelle, taktet die Karte mit 1524. wenn ich auf 1700 gehe stüzt der PC ab, wenn ich auf 1550MHz stelle komme ich am Ende auf 1515MHz. Meine 24/7 Settings sind: P6 1602MHz/0,95V; P7 1652MHz/1,00V; HBM 990MHz; SoC 950mV
 
Glyphus schrieb:
So 100% mag ich das nicht glauben wollen. Ich habe selbst eine Vega56 mit Heatkiller Fullblock, Flüssigmetal WLP, einer Phobya DC12 und 420er Radiator. mit Stock Bios, Undervolting und 50% increased Powertarget komme ich auf etwa 1524 MHz bei ~1,00V und ~38°C Wassertemperatur. Die Karte Verbraucht dabei ~250W und hängt bei etwa 45°C.
1730MHz benötigt wohl sicher so 1,35V und wird wohl mindestens 400-500W verbrauchen (Zum Vergleich - die Karte hier zieht ja anscheinend 480W {50% PT auf 321W} für die 1687MHz). Das auf 32°C zu kühlen könnte schwer werden.

Die AMD-Treiber App zeigt mir ohne Last Zimmertemperatur an und während dem Superposition Benchmark maximal 32 Grad an. Auch wenn ich die Graka währenddessen anfasse, ist sie nur handwarm. Ich habe anscheinend etwas Overkill mit den Radiatoren betrieben (2x360er 60mm dicke ekwb). Ich habe fest 1770MHz GPU mit 1080mV eingestellt bei 50% PT. Laut App habe ich beim Benchmark dann konstant 1700MHz. Für den alltäglichen Betrieb habe ich die Spannung auf 1100mV und eine relative Übertaktung von 5%, um auf Nummer sicher zu gehen, da ich in BF1 manchmal Texturfehler hatte (wobei es anscheinend eher an BF1 selbst liegt).

Pizza! schrieb:
Ist aber eher ein mieser Vergleich.
Glück gehabt beim Kauf + Wasserkühlung die größtenteils schon vorhanden ist VS. Luftgekühlte 1070,1080 die solche Bastelein garnicht erst nötig haben und nebenbei noch 50 bis 100 Watt weniger verbrauchen und als gute Customs vorhanden sind.

Du hast recht. Die Wakü allein hat ca. 800€ gekostet. Wobei man 1080 Niveau vermutlich auch teilweise mit einem Custom Luftkühler erreichen könnte.

DocWindows schrieb:
Die meisten Leute wägen wahrscheinlich eher ab was gegen oder für eine Grafikkarte spricht und nicht was für oder gegen eine Firma spricht. Die Leute kaufen schließlcih bloß die Karte und nicht die Firma.
Und wenn man vor der Entscheidung steht ne Pascal oder ne Vega zu kaufen, weiß ich nicht warum man Maxwell beachten sollte.

Im Gegensatz zu anderen Leuten vergesse ich halt nicht, wenn ich beschissen werde. Viele haben sich nach der 970 Geschichte ja auch eine 980 geholt und somit NVidia auch noch belohnt.
Aus dem gleichen Grund haben wir wahrscheinlich auch solche Bundestagswahlergebnisse. ;-)


Darkseth88 schrieb:
Das ist aber ein reines 100%iges Fanboy/Haterboy argument. Was hat denn die GTX 970 mit der GTX 1070 zu tun? Absolut gar nichts. Was mit der 970 damals war, ist ein einzelfall gewesen, an der 1070 ist nichts negativ in solch einer Richtung.

Mir ging es um den Preisanstieg, den NVidia uns im Vergleich zu früher "zusätzlich" aufdrückt. Wobei sie das ja auch nur können, weil es an Konkurrenz fehlt.
 
Von Advanced Mining Devices sollte man halt auch keine guten Gamer Karten erwarten ;)
 
Glyphus schrieb:
Afaik ist das die Spannung des "SoC" (Interposer). Dieser sollte eher etwas höher gestellt werden um stabilen HBM OC zu bekommen.
....
Um Meine Frage zu wiederholen..woher kommt die Information, was die "Spannungsregulierung" macht.....Ich beziehe mich da auf Buildzoid und weder er noch ich konnten höhere HBM2 Übertaktungen schaffen, wenn diese ominöse Spannung erhöht wurde.

Meiner Meinung nach kann das weder Speichercontroller noch soc sein....
 
Eine Vega "einfach" etwas mit der Spannung runter, dann geht der Boost-Takt automatisch höher und der "verbrauch" runter. So bleibt beim lesen über computerbase nur das kopfschütteln.

Darkscream schrieb:
Für 600€ bekomme ich eine GTX1070TI mit super duper Nachrüstkühler: https://www.nvidia.de/graphics-cards/geforce/pascal/buy/
Da ich schon einen Morpheus habe aber wohl doch nur für 470€.

GTX1070TI für 600€ ?Derzeit nicht vorrätig für 470€ ? Derzeit nicht vorrätig
GTX1080, GTX1060,... Derzeit nicht vorrätig Derzeit nicht vorrätig Derzeit nicht vorrätig
 
Zuletzt bearbeitet:
Chismon schrieb:
Zuerst einmal gebührt Wolfgang/CB Dank für diesen nachgelieferten Test zur kleineren ASUS RX Vega Strix :).

Seit der HD7870 hatte ich den Eindruck, dass man Grakas von Asus kaufen kann. Hatte vor 2-3 Monaten meine Sapphire Nitro 580 8GB für eine 1080ti (599$) als Hongkong-Mitbringsel getauscht.
Aber die NV hat so übles Spulenfiepen, dass die kranke Rechenpower mich nicht ausreichend vom Krach ablenkt (der Rechner steht in nem bifenix shinobi unterm Tisch), so dass ich wieder die Radeon eingebaut habe und seitdem pubg wieder mit FHD auf 144fps spiele statt in WQHD und vielen Details.
Dazu noch die Meldung über diese Vega56 hier, hat sich Asus mal auf einmal überhaut nicht mehr mit Ruhm bekleckert.

"Bei ASUS Grakas kannst du nichts falschen machen" gilt spätestens seit dieser Referenzinterpretation dann nicht mehr...
Asus, wtf?!

Xes schrieb:
Sollte die Miningblase platzen

ALL, Computerbase-Community:
Das wird NICHT passieren.
- Die Kurse erholen sich immer, teilweise innerhalb von 24, im Fall des schwarzen Bitcoin-Freitags in 5 Tagen um 80% bei den Bitcoin-Alternativen
- Fallen Währung A, B, C usw gibt es demnächst viel Ersatz, der nicht mehr dem BC folgen wird
- ....

Dr. Wiesel schrieb:
Ohne mich aus dem Fenster lehnen zu müssen kann ich sagen, dass der Test überflüssig ist da nicht lieferbar. Und wenn lieferbar, dann 400€ zu teuer. Nichts gegen Computerbase...

Doch, sogar sehr sinnvoll! Wenn es eine Angebotsaktion gibt und mich jemand fragt: Kann ich die kaufen? Sage ich: Bloss nicht! Lieber eine andere Vega, z.B. Powercolor oder Sapphire.

graysson schrieb:
Im Gegensatz zu anderen Leuten vergesse ich halt nicht, wenn ich beschissen werde. Viele haben sich nach der 970 Geschichte ja auch eine 980 geholt und somit NVidia auch noch belohnt.
Aus dem gleichen Grund haben wir wahrscheinlich auch solche Bundestagswahlergebnisse. ;-)

touche! ROFL!
thanks a lot! you made my day!
 
Zuletzt bearbeitet:
Baal Netbeck schrieb:
Um Meine Frage zu wiederholen..woher kommt die Information, was die "Spannungsregulierung" macht.....Ich beziehe mich da auf Buildzoid und weder er noch ich konnten höhere HBM2 Übertaktungen schaffen, wenn diese ominöse Spannung erhöht wurde.

Es wurde zumindest gezeigt, dass der SoC höher takten muss als der HBM. Der default Clock ist wohl 1107 MHz und wird dann dynamisch angehoben auf ~1200 wenn man mit HBM versucht höher zu kommen. Das war wohl anfangs ein Problem beim Vega HBM
übertakten wurde dann später eingeführt. Durch erhöhte SoC Geschwindigkeit wird mehr Sapnnung benötigt. Wenn man nun die "HBM Voltage" zu gering einstellt kann es wohl zu Problemem im System GPU <-> Interposer <-> HBM kommen. hochgetaktete GPU, lahmer Interposer, hoch getakteter HBM scheinen nicht wirklich kompatibel zu sein. Darüber hinaus gibt es Berichte, dass die HBM Performance, aka Grafikfehler, auch sehr stark temperaturabhängig sein soll.


"So VDDC is actual HBM voltage and VDDCI [das sollte die WattMAn HBM voltage sein] is the voltage for the controller? And is VDDCI voltage tied to core voltage, which is why setting '950' as the minimum means the core can only go to a minimum voltage of .95 volt (at max 2 pstate)"

Quellen sind nicht super toll aber mehr habe ich gerade auf die schnelle nicht gefunden
https://www.reddit.com/r/Amd/comments/7fethi/increasing_vega_hbm_clock_to_1125mhz_bumps_soc/
http://extreme.pcgameshardware.de/o...ga-56-overclocking-undervolting-thread-2.html (Reg Hack)
https://www.reddit.com/r/Amd/comments/7vlvfd/psa_vega_hbm_voltage_is_set_by_bios_what_youre/
https://www.reddit.com/r/Amd/comments/6za90j/buildzoid_does_some_undervolting_on_v64_worth_the/
 
Waelder schrieb:
beim NT wäre es nur schade, wenn du zB ein 500er Dark von beQuiet ersetzen müsstet - also im Grunde ein hochwertiges/teures und sonst keine Verwendung mehr dafür mehr hast, ansonsten ist das NT ja mittlerweile fast die verschmerz-barste Komponente...

War ein 480er Straight Power E9, liegt halt jetzt als Reserve rum. Dafür ist jetzt n 650er Superflower Leadex Gold drin.

Die Leistung abseits vom Gaming nutzt mir halt aktuell recht wenig, aber auch in Games macht sie ne gute Figur. FF XIV in 2,5k bei konstant 60FPS ist schon nice ;-) hat die Fury nicht gepackt.
 
graysson schrieb:
Ich sehe schon ein paar Sachen, die gegen NVidia sprechen wie die ganze 970-Geschichte, wegen der ich von NVidia auf AMD gewechselt bin. Oder die Preiserhöhungen von teilweise 30% oder mehr je nach Karte beim Wechsel von der 9er auf die 10er Generation.
Besonders bei letzterem kann ich nicht verstehen, wie selbst NVidia Befürworter das gut finden kann.

Dagegen setze ich die AMD 64-bit Verarsche zusammen mit Crytek und die Tatsache das AMD schön mitzieht im Preiskarussel. ;)

Das findet man nicht gut, die Quartalszahlen sprechen aber für dieses Vorgehen.
Im Gegensatz zu AMD geht es NV blendend und es ist genug Kohle da für stetige Weiterentwicklung wo AMD in Sachen GPU ganz schön zu kämpfen hat.

Ich bin übrigens stolzer Besitzer einer Vega 64 LC für damals noch günstige 750€. :D
 
Yay, ein Test zu einem Produkt welches man Quasi nicht kaufen kann.
In der DDR hat doch auch niemand Tests von Bananen veröffentlicht :D
 
Waelder schrieb:
zum Glück bin ich aus dem Zwang raus immer was Neues und aktuelles haben zu müssen, alle paar Generationen mal ein Update reicht mir aus...
"

Es ist nur verdammt bescheiden, wenn der Graka gerade in einer solchen Zeit die Luft ausgeht....

Die HD 7950 sollte so langsam ersetzt werden.
 
DocWindows schrieb:
Die meisten Leute wägen wahrscheinlich eher ab was gegen oder für eine Grafikkarte spricht und nicht was für oder gegen eine Firma spricht. Die Leute kaufen schließlcih bloß die Karte und nicht die Firma.

Dagegen Spricht das sich immer NV Karten besser verkauft haben in letzten 15 Jahren, selbst wenn sie schlechter waren.:rolleyes:
Ich kannte das auch von vielen bekannten "ist ne NV drin?"
Sry es wundert mich garnicht das AMD sein Zeug lieber an Apple und Intel verkauft, und wohl auch in neuen Konsolen SoCs. :D

Ich glaube auch nicht das es einen Navi für Gamer geben wird, wenn überhaupt eine Weiterentwicklung von Polaris mit GDDR, wo sich dann auch wieder die Miner die Hände nach reiben werden.

akuji13 schrieb:
Ich bin übrigens stolzer Besitzer einer Vega 64 LC für damals noch günstige 750€. :D

Haha, me2.
Aber nicht ganz freiwillig ...der Asyncmonitor ist schuld!:freaky:
Ich hab damals in die Bestellung als Kommentar geschrieben (Brace yourself, winter is Coming)
Als Antwort gabs (The night is dark and full of terrors...)
Mitm UV bin ich recht zufrieden, hätte aber lieber ne 1080TI, jedoch nicht wenn ich 600€ fürn vergleichbaren Monitor hätte ausgeben müssen.
 
Zuletzt bearbeitet von einem Moderator:
dersuperpro1337 schrieb:
1) 10°C wärmer als eine 1070
2) Genau so laut, wie eine 1080ti
3) 70-90% mehr Stromverbrauch als eine 1070
4) Rund 200€ teurer als eine 1070
4) Performance einer 1070

Sehe keinen Grund für Vega, auch wenn alle versuchen, sich das ganze schön zu reden.

1) DX10.1 Marktmanipulation
2) Kepler flasche DX-Spezifikationsangaben
3) GTX970 Desaster
4) Maxwell versprochener Patch
5) versteckte Kosten durch G-Sync von 80-100€ pro Grafikkarte, wenn man alle 3 Grafikkarten einen Monitor kauft.
6) Treiberlayout aus dem letzten Jahrhundert


Sehe keinen Grund für Nvidia, auch wenn alle versuchen, sich das ganze schön zu reden.

Klar ist die Vega teurer, aber AMD wäre schön doof wenn sie wie in den letzten Jahren ihre Karten verschenken. Immer gab es mehr Rechenleistung oder mehr VRAM bei gleichem Preispunkt. Gebracht hat es ihnen in sachen Marktanteilen fast nichts. Lediglich zum Topmodell gab es kein Gegenstück, da GCN nunmal auch im Cumpute-Bereich gut aufgestellt ist. Dies hat zur Folge, dass GCN gemessen an der Chipfläche im Gamingmarkt preiswerter aufgestellt ist. Die normalerweise günstigeren Preise führen dazu, das die Karten gerade unter Minern beliebter sind. Das ist natürlich alles aktuell Schall und Rauch, da der Miningboom so groß ist, dass praktisch alle Karten vergriffen sind egal ob Nvidia oder AMD.
 
Roche schrieb:
Also mir isses egal, an wen AMD seine Vega Karten vetickt. Hauptsache sie verkaufen ordentlich und bekommen gut Knete für zukünftige Entwicklungen rein.

Sehr kurzsichtig deine Meinung!

Laut Steam Umfrage hat AMD derzeit 8% Marktanteil bei Grafikkarten. Das bedeutet, dass sie im Spielemarkt praktisch keine Bedeutung haben!

Das bedeutet aber auch, dass immer weniger Spieleentwickler ihre Software auf AMD Karten optimieren, immer mehr Entwickler setzen auf Gameworks und auch Freesync verliert weiter an Bedeutung. Künftige Entwicklungen müssten da schon sehr viel bieten um überhaupt wieder von Spielern in Erwägung gezogen zu werden. Vor allem Kunden die sich nun G-Sync Monitore kaufen, werden auch auf lange Sicht einen Bogen um AMD machen....

Schön das AMD mit Mining Geld verdient, aber die Blase kann schneller platzen wie sie entstanden ist. Dann steht AMD auf einer Halde Karten die niemand haben will und NVidia lacht sich schlapp!
 
Zuletzt bearbeitet:
G3cko schrieb:
6) Treiberlayout aus dem letzten Jahrhundert
Solange der Treiber aber so funktioniert wie er funktionieren soll, ist mir das Design eigentlich egal. Mein Vega 56 Experiment war Treibertechnisch eine einzige Katastrophe. Die Oberfläche sah ganz schön aus, aber die ganzen Fehler... Nein danke. Ich würde gerne wieder AMD kaufen, aber nicht in diesem Zustand.
 
xexex schrieb:
Sehr kurzsichtig deine Meinung!

Laut Steam Umfrage hat AMD derzeit 8% Marktanteil bei Grafikkarten. Das bedeutet, dass sie im Spielemarkt praktisch keine Bedeutung haben!

Das bedeutet aber auch, dass immer weniger Spieleentwickler ihre Software auf AMD Karten optimieren, immer mehr Entwickler setzen auf Gameworks und auch Freesync verliert weiter an Bedeutung. Künftige Entwicklungen müssten da schon sehr viel bieten um überhaupt wieder von Spielern in Erwägung gezogen zu werden. Vor allem Kunden die sich nun G-Sync Monitore kaufen, werden auch auf lange Sicht einen Bogen um AMD machen....

Schön das AMD mit Mining Geld verdient, aber die Blase kann schneller platzen wie sie entstanden ist. Dann steht AMD auf einer Halde Karten die niemand haben will und NVidia lacht sich schlapp!

Ohne das Mining wären so vielen Vega auf Lager das auch die Preise passen würden. Für 399 wäre die 64er eigentlich ein ganz gutes Anebot. Ist zwar in allen Bereichen deutlich schlechter aber dafür dann wenigstens billig.

Wenn die Mining Blase mal Platz steht AMD da mit ihren Karten die kein vernünftiger Gamer kaufen würde. Aber egal in 2 Monaten kommt Ampere dann redet eh keiner mehr über die Fail Vega. War ja bei den Fury Speicherkrüppeln auch so.
 
Völlig uninteressant für den Preis. Leider.

Vlt. endet der Mining-Boom mal oder man findet eine andere Lösung als Hersteller. Aber weiß nicht was man da als Lösung andenken soll.
 
Darkseth88 schrieb:
Pauschal? Warum?
Es ist doch völlig egal, wie groß der Chip ist. Welche Leistung er in der praxis bringt, ist relevant.

schau dir an wo die GTX 980 Ti heute vergleichen mit den damaligen kleineren Karten steht. Die Rohleistung des fetten Chips kommt später erst an. Es dürfte immer mehr Titel geben bei denen die GP104 Karten zunehmend das Land gegen Vega verlieren. Vega dürfte dabei der Extremfall sein da der Chip so überdimensional groß ist verglichen mit der Konkurrenz. Dabei sollte er dank HBM sogar nich ein flächenmäßig kleineres SI haben.
 
Zuletzt bearbeitet:
Zurück
Oben