AMD VEGA 64&56 Erfahrungsthread

Was ich am erfreulichsten finde für alle das es für hochauflösende Freesync-Monitore jetzt endlich eine Grafikkarte gibt mit der man auch einigermaßen gut was anfangen kann. Denke das ist eigentlich das wichtigste im roten Lager.

Viele haben jetzt wahrscheinlich eh lange genug gewartet die einen Monitor haben mit Freesync und 3440x1440 aufwärts... Für die gibt es ohnehin keinen anderen Weg als eine Vega64 ;)
 
Ich habe zwar keine Vega und plane auch keine (demnächst) zu kaufen, aber es macht Spaß, hier mitzulesen und Eure Ergebnisse zu sehen. Mit Undervolting scheint der Chip bereits ohne optimierten Treiber sehr leistungsfähig zu sein. Was hat da nur AMD verbockt, dass quasi alle gehypten Features nicht aktiv sind? Das Thema UV muss ich auch mal mit meinen beiden R9 290 probieren. Bisher ging es nur in die andere Richtung (Overclocking mit Spannungserhöhung) und es waren mit Stock-Voltage locker 1.100 MHz drin und mit etwas mehr Voltage gar die 1.200 MHz.

Was ich absolut nicht verstehe: Warum hat es AMD in den letzten 1,5 Jahren nicht mal im Ansatz vollbracht, ein wenig den Treiber auf die neue Hardwarearchitektur anzupassen? Ich hoffe, dass die Features im Kern bereits alle voll implementiert sind und die Freigabe letztlich nur noch von Kleinigkeiten abhängt. Das müsste doch zu schaffen sein... oder sind denen die besten Senior Level Driver Developer in den letzten Monaten von Board gegangen?

Go AMD, go!
 
r4yn3 schrieb:
Edit: Im Schnelltest wird nun klar, wieso die Karte runtertaktet obwohl kein PT oder TT erreicht wird. Der HBM hat schneller seine 95° erreicht, bevor die GPU 80° erreicht. Aua aua...

Das erinnert mich an eine kürzlich geführte Diskussion, wo doch einige der irrigen Meinung sind, die GPU würde über den Kühlkörper den Speicher aufheizen. z.B.

https://www.computerbase.de/forum/t...-lange-schatten.1703280/page-79#post-20373596
https://www.computerbase.de/forum/t...-lange-schatten.1703280/page-79#post-20374017
 
@kisser: Die Diskussion hab ich schon mitverfolgt. Der HBM wird bestimmt vieles der Hitze von der GPU abbekommen, aber ich dachte eigentlich dass die Temperatur immer unter der der GPU liegt. Der Speicher ist aber eigentlich zumindest auf dem ersten Blick immer ~10° wärmer als die GPU. Im Extremfall 15°.

Siehe WoT. Selbst bei 2600rpm Lüfterspeed kommt man auf 88°. Das OSD ist noch nicht wie gewünscht, Temp C G H soll CPU GPU HBM bedeuten.

worldoftanks_2017_08_26_17_09_26_659.jpg
 
Zuletzt bearbeitet:
@VAN DOOM: Genau so ist es und es trifft meine Situation perfekt. Ich hatte ne RX480 die ohne Minen leider kaputt gegangen ist. Ich habe zwar sofort den Kaufpreis von Amazon bekommen aber leider gabs durch den Etherum hype keinen Ersatz zu kaufen - nichtmal ne RX460 um wenigstens Dota2 etc zu spielen. Außerdem war ich in 2560x1440p nicht ganz zufrieden mit der Leistung der RX480 und hätte gerne mehr ausgegeben als die 240€ für ne RX480. Mit WaKü ist der Graka-Wechsel auch immer mit Arbeit verbunden und daher kaufe ich lieber für etwas mehr und habe dafür 1 Jahr länger genug Leistung.
Da ich das "Glück" der 509€ bei Vega64 hatte, bin ich jetzt auch sehr zufrieden mit der Karte und es interessiert mich ehrlich gesagt sehr wenig, ob Vega64 nun 10% über oder unter der 1080 in irgend einem Spiel liegt. Im moment spiele ich sogar im Power Save, weil mir die Leistung reicht und ich noch nicht dazu gekommen bin wieder Witcher3 zu installieren.
FreeSync/GSync ist einfach ein tolles Feature und es gibt 27'' 1440p für 300€. Daher stimme ich natürlich allen NVidia Fans zu, dass eine 1080 mindestens gleichgut ist aber wenn man den Monitor-Preis mit einrechnet ist es mir einfach zu teuer bei Nvidia zu kaufen.

Der HBM hat schneller seine 95° erreicht, bevor die GPU 80° erreicht.
Noch ein Grund, wieso man eine WaKü haben sollte! ;)
 
Ja das ist jetzt für mich wirklich ein Punkt wo ich auf die Liquid neidisch bin. Selbst ein auf effizienz getrimmter Vega mit UV und UC heizt seinen HBM bis zur Kotzgrenze. :o
 
Hm, 509,- € ist schon interessant, ich habe aber auch die Möglichkeit, eine gebrauchte 1080 ti für 600,- € zu bekommen. Vega würde auf jeden Fall unter Wasser gesetzt, das wären dann nochmal 110-120,- € on top und die Kühler sind bei EKWB noch nicht lieferbar. Bald kommt ja auch Vega 56 auf den Markt, das werde ich noch abwarten.
 
Habe weiter Undervolting Tests gemacht. Da meine Karte bei 1500MHz @ 950mV nach einigem testen sehr stabil zu sein scheint habe ich alle powerstates ensprechend per registry so modifiziert das p5 (der letzte den man in Wattman nicht ändern kann) 1500MHz @ 950MHz ist also der stabile Ausgangspunkt bei dem Performance / Leistungsverbrauch bei mir ein gutes Verhältniss haben. (die Leistung sinkt zwar spürbar etwas wegen den niedrigen clocks /nur 22k firestrike graphics score - niedriger als mit den stock max boost clocks) aber dafür ist die Karte so sehr effizient!

Ich habe mit diesen Einstellungen einen gesamten system Verbrauch meistens knapp unter 300W ! (290-310W gemessen je nach Spiel). Das sind ca 60 W mehr als die undervolted Rx 480 die ich vorher im System hatte, nur das die Vega sehr viel leistungsfähiger ist, also wenn man sie so betreibt eine sehr effiziente Grafikkarte.

Das Problem, 1500Mhz scheint schon etwas über dem Effizienz Sweetspot zu liegen, das schließe ich aus der Skalierung:

für jedes MHz mehr boost brauche ich ab diesen Takt schon ca 1 mV (für konstant 1600MHz braucht meine Karte 1050mV), damit stieg auch der Verbrauch um ca 80W an ... für einen höheren Takt brauche ich dann natürlich noch mehr Spannung und der Leistungsverbraucht schießt dann wie eine Rakete in die höhe.

Ich denke ich werde die Karte derzeit so betreiben (1500MHz @ 950mV), da sind zwar doch Leistungseinbußen vorhanden aber dafür ist die Karten effizient und noch immer sehr leistungsfähig.
 

Kannst du mir sagen wo der entsprechende Schlüssel für P5 zu finden ist? Meine läuft derzeit auf auf 1500@1000, wenn 950 auch geht, dann werde ich das auch machen.
 
Zuletzt bearbeitet:
Hier ist eine genaue Erklärung von dem User: hellm im overclockers forum :

http://www.overclock.net/t/1633446/preliminary-view-of-amd-vega-bios/250#post_26297003

Falls du dich danach mit etwas nicht auskennst oder noch fragen hast kann ich dir gerne versuchen zu helfen/antworten (ich habe inzwischen in der reg datei alles mögliche von Stockspannungen bis Clockraten geändert).

Ahja, und ich würde dir empfehlen, falls du es nicht schon hast, das watttool ver 0.92 runterzuladen, damit kannst du zwar die p1-p5 nicht ändern, aber du kannst die Werte auslesen. Und gleichzeitig in einem Fenster einen hex-decimal und in einem anderen einen decimal-hex Konverter. Die Werte die du mit dem Watttool ausliest dann in hex umwandeln (die hex Werte stehen umgedreht, also spiegelerkehrt in zweierpaaren in der reg, aber das wird genau in dem oben verlinkten post erklärt, und in der reg suchen und in die ensprechenden hex werte umwandeln die du willst, so habe es zumindest ich gemacht.
 
Zuletzt bearbeitet:
r4yn3 schrieb:
@kisser: Die Diskussion hab ich schon mitverfolgt. Der HBM wird bestimmt vieles der Hitze von der GPU abbekommen, aber ich dachte eigentlich dass die Temperatur immer unter der der GPU liegt.

Entscheidend ist die Wärmenergie pro Fläche, die die Bauteile abgeben und da könnte es schon sein, dass das für den HBM mehr ist als für das doch deutlich größere GPU-Die.
Es stellt sich natürlich auch die Frage, wo genau in den jeweiligen Dies die Temperaturen von HBM und GPU gemessen werden.
Der HBM ist ja ein Stapel und die Wärmeleitfähigkeit von Silizium ist geringer als die von Kupfer und Aluminium, so dass der unterste HBM-Die im Stapel am wärmsten werden dürfte. Falls dort gemessen wird könnte das die Temperaturdifferenz erklären.
 
@Aliquis

Danke für den Link. Hat alles super geklappt. Habe nun P2-P7 auf 950mV. GPU habe ich auf 1536 Mhz und Speicher auf 1000. Allerdings habe ich seit dem 17.8.2 unabhängig vom Power Target immer ca. 70-100 Mhz weniger als ich einstelle. Bei 1536 liegen also nur 1435 an laut Tools.

Wenn ich das ausgleichen möchte, also 1580-1600 einstelle, habe ich leider einen Crash bei 950mV. Dementsprechend habe ich leider auch nur ca. 22100 GPU Score im Firestrike.

Es ist unglaublich wie viel Kühler die Karte gleich ist. Ich habe bisher noch nicht nachgemessen aber die Karte braucht soviel weniger, dass sie selbst mit PT 0% den P7 nie verlässt. (entspricht ja auch quasi nun dem alten P5/6 vom Takt)

Die letzten 100 Mhz sind also von AMD wirklich mit der Brechstange rausgeholt worden.
 
Zuletzt bearbeitet:
Ich würde dann gerne Customs sehen, die direkt ab Werk eben mit einer niedrigeren Spannung in den States arbeiten und die Chips kühler bleiben als bei der Referenz-Karte. Bin mal auf die Strix gespannt.
 
Ich fürchte das die Custom Karten ähnlich wie bei der rx 480/580 Serie ausfallen werden: sehr hohen Takt und default Spannungen damit sie jedes extra %Performance rausholen. Die Effizienz geht dann natürlich flöten.

@ cvzone: ich habe meinen Pc an einem Wattmeter hängen, mit den 1500MHz/950mV zieht das ganze System ca 300W (das selbe System mit rx 480 hatte ca 230-250W gezogen).
Eine konservative Schätzung für den GPU only draw wäre: 300W -10% Netzteileffizienz - 60 W für CPU und den Rest an Komponenten (habe einen i7 5280k ütertaktet auf 4ghz drinnen) = 210W (ich denke meine CPU und restlichen Komponenten ziehen während Last mehr)

Es würde mich also nicht überaschen wenn die Karte mit dem undervolting unter 200W verbraucht.
 
aliquis schrieb:
Es würde mich also nicht überaschen wenn die Karte mit dem undervolting unter 200W verbraucht.

Um das zu erreichen müsstest Du der Karte aber fast komplett den Hahn abdrehen und wärst dann etwas über der Leistung von RX480/580.

Ich konnte mit der Liquid nur in Full HD @60 FPS Werte unter 200 Watt erreichen, aber für Full HD hatte ich mir die Karte nicht gekauft, da hätte ich die RX480 behalten können die dafür mehr als ausreichend ist.
Bei dem ihr zugedachten Verwendungszweck, flüssiges 4K Gaming, zog das Gesamtsystem im Turbo Modus üblicherweise zwischen 400 -550 Watt aus der Dose. Turbo Modus deshalb, weil ansonsten die von mir gewünschten 60 FPS nicht immer erreicht wurden.
 
Um das zu erreichen müsstest Du der Karte aber fast komplett den Hahn abdrehen und wärst dann etwas über der Leistung von RX480/580.

Wie kommst du darauf? Das ist ja gerade das schöne am Undervolting. Man hat eben keinen Leistungsverlust solange man die Spannung nicht so stark absenkt, das die Karte den Takt nicht mehr schafft. Und selbst wenn man die Karte bei 1500 Mhz deckelt ist sie immer noch weit schneller als eine RX580.
 
Ich bezweifele ja nicht, dass man Vega gut undervolten kann - ganz im Gegenteil.
Die Frage ist doch: Wieviel Minderleistung wird dafür in Kauf genommen?

Ich bin nur skeptisch das man sie bei einem 200 Watt Korsett noch Standesgemäß betreiben kann und mit Standesgemäß meine ICH 4K zocken bei 50-60 FPS.
Meine Liquid hatte in einigen Spielen schon Probleme stabile 50 FPS zu erreichen - im Turbo Modus und mit über 500 Watt Systemverbrauch.

Aber wenn die Karte das mit nur 200 Watt bei Euch schafft ist doch alles in Ordnung, meine konnte das nicht
 
So kann man das natürlich sehen, ich teile aber eher die Betrachtungsweise von cvzone

Die letzten 100 Mhz sind also von AMD wirklich mit der Brechstange rausgeholt worden.

Schon ab 1500MHz skaliert meine Karte nur mehr mit ca 1mV /MHz Takterhöhung, habe mit Wattmeter nachgemessen das der Verbrauch wenn ich Takt/Spannung enstsprechend für 1600MHz erhöhe um ca. 80 Watt steigt. Will man noch höher gehen (zb.: auf 1700MHz) wird die Skalierung noch schlechter und man ist bald beim insgesamt doppeltem Leistungsverbrauch der Karte für nur 200MHz extra.

Muss natürlich jeder selber wissen wie er seine Karte betreiben will, ich finde das der extra Verbrauch und die gebotene Zusatzleistung in keinem vernünftigen Verhältnis sind.

So gesehen: die extra Leistung die ich durch niedrigeren max Clock aufgebe ist meiner Meinung nach Leistung die von vornherein nicht mit der Karte benutzt werden soll. (200Mhz-250Mhz mehr clock mit ~200W extra Verbrauch erkaufen, das ist für mich kein guter Deal....:o )

Und AMD hat ja schon auf der siggraph Messe kurz eine VEGA Nano geteasert. Ich nehme an das diese Karte mehr oder weniger genau so betrieben wird wie wir es derzeit machen, niedrigere Takttraten/niedrigere Spannung(nähere am Performance/Leistungsverbrauch Sweetspot von VEGA) , dafür deutlich niedrigerer Verbrauch, Leistungseinbußen gegenüber Stock natürlich vorhanden, halten sich aber in Grenzen.
 
Zuletzt bearbeitet:
on vornherein nicht mit der Karte benutzt werden soll.

Sehe ich auch so. Ob ich mit Freesync nun 90 oder 85 FPS habe ich mir persönlich nicht so wichtig. Aber wenn man natürlich bei 4K um jeden Frame ringt, dann verändert sich das natürlich. Aber trotzdem kommt irgendwo ein Punkt, wo es keinen Sinn mehr macht. (1 FPS für 80 Watt)

EDIT: Ich habe jetzt mal das ganze System nachgemessen. (1700X@3,8Ghz)

BALANCED Bios 1 PT 0%
FireStrike Test 1: 400 Watt
FireStrike Test 2: 385 Watt
Avg. Temp 77C
GPU Score 21.300
Max Clock: 1630 (Default P-States)

Registry P-States P2-P7 950mV PT 0%
FireStrike Test 1: 330 Watt
FireStrike Test 2: 290 Watt
Avg. Temp 68C
GPU Score 22.200
Max Clock: 1450 (1550 eingestellt, Problem seit 17.8.2, unabh. vom Power Target)

Das undervolten per Registry bringt viel mehr als nur die P States 6 und 7 einzustellen! Für Stabilitätstests nutze ich jetzt Heaven. Ich habe festgestellt das 3D Mark durchaus noch mit Spannungen läuft, die Heaven nach einiger Zeit abstürzen lassen.
 
Zuletzt bearbeitet:
Zurück
Oben