News Radeon Vega Frontier Edition: Platine mit 484 mm² großer Vega-10-GPU enthüllt

Ich hab jetzt mal "Claymore's Dual Ethereum+Decred_Siacoin_Lbry_Pascal AMD+NVIDIA GPU Miner v9.6" runtergeladen. Wenn ich da dann die Batch Datei "start" ausführe kommt ein Fenster, dass Windows die Anwendung nicht starten kann.
Ich hätte auch schon NiceHash versucht, dort schlägt der Benchmark zu DaggerHashimoto (ClaymoreAMD) auch fehl.

@SKu: TBR ist inaktiv, das wurde auch schon bestätigt. Soweit ich das sehe verändert der Game Modus gar nichts. Da der Pro Mode keinen WattMan hat, ist es reine Spekulation dass PT und Lüfterkurve verändert sind.
Der Game Mode ist einfach ein nicht optimierter Crimson Treiber.
 
Zuletzt bearbeitet:
aivazi schrieb:

Dort vom Google oder Mega Folder die Datei "Claymore's Dual Ethereum+Decred_Siacoin_Lbry_Pascal AMD+NVIDIA GPU Miner v9.6 - Catalyst 15.12-17.x - CUDA 8.0_7.5_6.5.zip" runterladen. Entpacken. "start.bat" bearbeiten, am Ende der Zeile "-mode 1 -benchmark 132" (ohne Anführungszeichen) hinzufügen, und ausführen. Die Windows Firewall klick weg, das Ding muss nicht kommunizieren, ist nur Benchmark Modus.

Änder dann auch gerne mal auf "-benchmark 200", das simuliert die DAG Grösse in ein paar Monaten. Die RX400/500 Karten verlieren mit steigender DAG Grösse stark und haben bei DAG Epoch 200 nur noch die Hälfte der Hashing Leistung übrig. Wär interessant, wie es bei Vega aussieht.
 
Kann schlicht nicht ausgeführt werden. Kann es sein dass es einfach am Treiber liegt der nicht erkannt wird?

Weil ichs grad auf der reddit Seite lese wo man vom ehminer spricht, in Bezug auf HBM2. Dieser lief bei mir schon bei 1050MHz und 800mV. Also soooo krass am Limit kann der nicht sein.
 
r4yn3 schrieb:
@SKu: TBR ist inaktiv, das wurde auch schon bestätigt. Soweit ich das sehe verändert der Game Modus gar nichts. Da der Pro Mode keinen WattMan hat, ist es reine Spekulation dass PT und Lüfterkurve verändert sind.
Der Game Mode ist einfach ein nicht optimierter Crimson Treiber.

Ist das der Grund, warum CPU-Z auch einen veralteten Crimson Treiber erkennt? Scheint ja auf Version 17.1.1 zu basieren. TBR hat bei Nvidia doch einen erheblichen Performance-Schub bewirkt. Irgendwie habe ich das Gefühl, dass selbst der Treiber für die FE noch nicht wirklich "fertig" ist. Der musste halt raus, weil die Karte releast wurde. Aber anscheinend hat AMD ja erhebliche Probleme mit der Treiber-Software für Vega.
 
r4yn3 schrieb:
Kann schlicht nicht ausgeführt werden. Kann es sein dass es einfach am Treiber liegt der nicht erkannt wird?

Interessant. PC Perspective hat's auch nicht geschafft, trotz installiertem Treiber inkl OpenCL. Aber der Streamer Jerico nen Tag zuvor sehr wohl.. der hat dann 33MH/s gemacht mit der Karte.

Poste mal einen Screenshot der Fehlermeldung und Fehlerdetails.
 
@SKu: Ob er wirklich veraltet ist kann ich nicht sagen. Der Pro "Treiber" ist 17.6.2, Gaming eben 17.1.1. Der Treiber selbst meldet sich ja als Crimson ReLive. Und das Treiberpaket ist eigentlich auch ein Crimson: Driver Packaging Version 17.20.1035-170624a-315622C-CrimsonReLive.

Game Mode.pngPro Mode.png

Wundern würde es mich nicht, dass man einfach beim Treiber entwickeln den 17.1.1 als Basis genommen hat. Die ganzen anderen Versionen, also Vulkan, OpenCL/GL und was sonst noch angefürt ist auf der zweiten Seite im Treiber sind bei beiden Modi gleich.

@stoneeh: Vergiss es, mein Fehler. Aber neuer Fehler:

ethminer.PNG
 
Zuletzt bearbeitet:
Edit: OpenCL Error. Komisch. Check mal die OpenCL Version im AMD Treiber.
 
Nein 64bit, aber in der Eile hab ichs wohl übersehen dass AntiVir sofort etwas in die Quarantäne verschoben hat.

Edit: OpenCL™ Version 22.19.384.2
Im Pro Mode gibts den selben Fehler.

Ich muss jetzt aber los, ich kuck morgen weiter.
 
Zuletzt bearbeitet:
Taxxor schrieb:
Es macht für die Herstellungskosten und damit auch den Preis schon einen Unterschied, wenn man fast 25% mehr DIEs aus einem Wafer raus bekommt.

Und für die zu erwartende Leistung macht es auch einen Unterschied, denn wenn man 30% größeren DIE hat als die 1080Ti dann muss sich das ja in irgendetwas wiederspiegeln(außer Stromverbrauch). Mit der neuen Größe bleibt da kein Spielraum mehr übrig.
Den Preis macht AMD. Die DIEGröße senkt oder schmälert die Marge. Selbst wenn der DIE nur 300mm2 groß wäre, aber die Leistung bei 1080TI Niveau, würden wir dennoch keine PolarisPreise sehen und wie viel Gewinn AMD mit jeder GPU macht, ist ihr Bier nicht meins. Größeren Impact auf den Preis/Verfügbarkeit haben die Yieldraten. Die wären interessant.

Teil 2.
Klar ist es interessant für die Zukunft wie groß das DIE ist. Aber für Vega uninteressant.

Falls AMD die Density verringert, steigert das auch die DIE Größe bei gleicher Shaderanzahl. Und Zack ist das DIE größer bei ähnlichem Stromverbrauch.

Nvidia hat auch nen 800mm2 Chip released. Der hat trotzdem nicht die doppelte Leistung einer 1080Ti, weil auf dem Stück Silizium mehr als nur doppelte Shader untergebracht sind.
Die Größe des Chips ist einfach tendenziell total egal. Wir wissen nochnichtmal,ob die Frontier eventuell noch Dinge mitschleift, die für die RX deaktiviert werden(Lasercut).
 
Krautmaster schrieb:
Ja, theoretisch wenn man von gleicher Rohleistung pro Shader ausgeht schon etwa um 50%. Verbraucht aber auch mehr und ein besseres PL als die RX 580 würde mich wundern.

Gibt doch schon genug Zahlen zu Mining würde ich meinen. Haben ja schon einige ne FE.

https://www.reddit.com/r/EtherMining/comments/6k521l/vega_eth_hashrate_3035_mhs/

Vielleicht kann ja einer der zwei Foren Besitzer hier die Mining Performance mal angehen :)

Naja beim Mining je nachdem wo man sich bewegt könnte vega durchaus interessant sein , denn man spart sich ja bei so ner grossen Miningfarm einiges an Platz, also kleinere Halle die gemietet oder gekauft werden muss und 50% weniger Motherboards + restliche Komponenten.
Könnte sich also für die Hardcore miner durchaus lohnen für den Privatheimanwender dürfte sich das nicht rentieren.
Oder eben auf selben platy 50% mehr Leistung.
Ist halt dann eine reine kaufmännische Rechnung was sich mehr rentiert für die big miner.
 
Zuletzt bearbeitet:
SKu schrieb:
Außerdem existieren doch Spiel-Benches, wie Sniper Elite 4, wo Vega auf gleichem Niveau mit der GTX1080Ti agiert.

Ich habe nur Benchmarks gesehen wo man eher auf Niveau einer übertakteten 1080er liegt.
Zudem muss man bedenken dass dort oft die Einstellungen nicht klar ersichtlich sind. Gerade bei Sniper Elite hat man ja keine genauen Angaben gemacht.

Noch kann man glaube ich nicht genau sagen dass man die Ti einholt.
Aber Zugewinn gegenüber der FE wird Gaming Vega sicherlich noch bekommen.
 
Ich hoffe echt, das die Karte sich NICHT für Mining eignet.

Ich hab es zwar nicht eilig, aber sofern die Referenzkarte schon überzeugend genug ist, hab ich schon vor zu kaufen. Early Adopter sozusagen.

Sollte die Ref Karte noch ihre Tücken haben, wird es eine Tri-X.

8 GB reichen völlig. Ich gehe auch nicht davon aus, das es eine 16 GB Variante (zum Start) geben wird.
 
Die ETH-Zahlen stimmen aktuell aber. Ich schaffe im gaming Mode 30,45 MH/s.
 
Die diskussion finde ich recht verwunderlich...

Einige die mit einer leistung etwas unter der 1080ti zufrieden wären, andere die den himmel beschwören, weil man anhand der founders edition auf die leistung schließt, und dann gibts natürlich die hater und fanboys ^^



Ehrlich gesagt bin ich generell überrascht, das die gerüchte oder einschätzungen richtung 1080/1080ti gehen.
AMD sprach ja von hunderten Architekturverbesserungen
hinzu kommt die 14nm fertigung im verlgeich zu fiji bzw. umgesetzt in eine 50%ige taktsteigerung

Alleine durch diese und die bessere Auslastung der Shader sollten doch min 60/70% mehr leistung drin sein o.O
Könnte mir das einer erklären, der in der Materie etwas besser drin ist?
 
Fusseltuch schrieb:
Die ETH-Zahlen stimmen aktuell aber. Ich schaffe im gaming Mode 30,45 MH/s.

Das ist ok oder?
Also lässt sich damit ganz gut minen oder?
 
Naja, ich find's eher mau, das schafft eine RX480 mit gemoddetem BIOS auch fast (ich meine es sind da ~28 MH/s), bei sehr viel weniger Energieverbrauch. Eventuell eigenen sich andere Cryptowährungen besser. Bei ETH würde ich sagen lohnt sich keine Vega FE.
 
Agba schrieb:
Alleine durch diese und die bessere Auslastung der Shader sollten doch min 60/70% mehr leistung drin sein o.O
Könnte mir das einer erklären, der in der Materie etwas besser drin ist?

Und exakt das wär grad mal das Niveau einer custom 1080. Für die Leistung der besseren 1080er Ti müsste man die Fury X Leistung verdoppeln. Siehe das letzte CB Grafikkarten-Ranking.

Die 50% Taktsteigerung sind auch keine. Vega FE hat in den Tests bei 1440 MHz schon das Power Target von 300w erreicht. Das sind +37% ggüber den 1050 MHz der Fury X.
 
Zurück
Oben