GTX1060 Hash-Leistung mit Ethereum

stna1981

Commander
Registriert
März 2007
Beiträge
2.474
Hi zusammen,

mache gerade einige Gehversuche mit Ethereum-Mining unter Windows 10. Verwende dafür den genoil ethminer-0.9.41.

Mit meiner GTX1060 @ 1975/2100 komme ich da auf ca. 20-21 MH/s unter Windows 10 mit Treiber 378.92. Ist das ein normaler Wert oder sollte da mehr drin sein, durch bestimmte Settings, anderen Treiber etc.?

Viele Grüße

Stefan
 
Normaler Wert bei dieser Übertaktung.
 
@Loopman: Die haben auch mehr Rohleistung für solche Sachen. Die Nvidia sind da künstlich beschnitten...
 
Einige haben wohl mit der Karte bis zu 23MH/s, da läuft der Speicher dann aber auch auf 125%. Bei mir laufen eine 1070 und 12x RX480 seit einem Jahr 24/7 und den Speicher lasse ich nie über +10% laufen -schon gar nicht bei diesen Temperaturen.

Die besten Ergebnisse habe ich mit:
  1. Claymore's miner
  2. Ein höherer GPU Takt bringt kaum mehr Leistung -> verbrät nur Strom
  3. Speichertakt erhöhen (egal womit, evtl. das BIOS der Karte editieren und die Timings schärfer stellen)
 
Wie siehts denn mit der Effizienz aus? Ich kann die GTX 1060 mit 50% Power Target laufen lassen, dann bleibt die Karte unter 100W. Was verbraucht denn eine RX480 oder RX580 beim Hashen? MH/s ist nicht alles, die Strombilanz ist mindestens genau so wichtig.
 
Die RX580 hat schonmal allein durch den besseren Speicherdurchsatz Vorteile, da ETH Mining speicherlastig ist. Inwifern die nVidia ansonsten noch beschnitten ist, weiß ich auch nicht...
 
Die Speicheranbindung ist bei der GTX 1060 auch langsamer als bei der RX 580.
 
Wobei meine Frage nach der Effizienz immer noch offen ist. In den USA spielt der Stromverbrauch wohl teils keine Rolle, wenn man aber 25 Cent für die kWh abdrücken muss, kann einem eine Grafikkarte, die 50% mehr verbraucht, schnell die Bilanz verhageln. Und in Sachen Effizienz sind die nVidias wiederum nicht so schlecht. Was verbraucht denn eine RX, um die 25-30 MH zu generieren? Wenn das mehr als 150W sind, sieht die Bilanz schon nicht mehr so gut aus...
 
Die 480er brauchen 120-130 Watt (GPU@920-950 MHz und undervolting, V-Ram läuft am Limit). Ich denke, dass trifft so auch auf die RX580 zu. Die GTX 1070 ist da effizienter (15-20% mehr Hashleistung, bei gleichem Verbrauch - dafür aber auch teurer).

Bei den BTC und ETH Preisen ist es aber ziemlich Wurst, ob die Karte 120 W (72 Cent/d) oder 150 Watt (90 Cent/Tag) zieht. Wer in dem Business über 3-6 Monate was planen will, so wegen break even und so... der wird definitiv jeden Monat neu über die Bücher müssen.
 
Zuletzt bearbeitet:
Also meine GTX 1060 bekomme ich mit 1531/2100 bei 0.8V auf ca. 70W und eine Hashleistung von 20.5 Mh/s. Sprich 0.29 Mh/s pro Watt. Wie sieht das denn bei einer RX570 aus, hat das hier mal jemand ausprobiert?

Preislich liegen die RX570 und eine GTX 1060 3GB ähnlich, die AMD hat mehr RAM und Stock schon mehr Rohleistung (>22). Habe gelesen dass man mit OC und UV so 28-30 rausholen kann. Wenn der Verbrauch dabei nicht mehr als 100W wäre, ist die RX570 klar vorzuziehen, da der ROI schneller erreicht ist (40% schneller).
 
stna1981 schrieb:
Preislich liegen die RX570 und eine GTX 1060 3GB ähnlich, die AMD hat mehr RAM und Stock schon mehr Rohleistung (>22). Habe gelesen dass man mit OC und UV so 28-30 rausholen kann. Wenn der Verbrauch dabei nicht mehr als 100W wäre, ist die RX570 klar vorzuziehen, da der ROI schneller erreicht ist (40% schneller).

Ich habe eine RX 480, Komme mit meiner auf Stock schon auf ~24 MH/s bei ungefähr 100 Watt. (1260/2000/980 mV ) ( Chip OC, hat nicht allzu viel bewirkt, außer dass der Verbrauch um 30 Watt gestiegen ist bei eventuell 0,5 mH/s mehr Leistung. )

Wenn ich Undervolting betreibe und den Speicher übertakte (1260/2150/960mV ) komme ich bei einer Leistung von ungefähr 26,15 MH/s bei 90 Watt raus. Den Nvidias fehlt halt schlicht die Rohleistung, weil die Chips seit Kepler nur noch auf Gaming ausgelegt sind.

Das ist seit der GTX 680 der Fall und das war damals mit der HD7970 nicht anders, letztere war schließlich massiv schneller im Bitcoin Mining nur Aufgrund der Rohleistung und der Bandbreite bei einem niedrigeren Preis. AMD Karten zahlen sich auf anderem Wege aus :lol:
 
aivazi schrieb:
Wenn ich Undervolting betreibe und den Speicher übertakte (1260/2150/960mV ) komme ich bei einer Leistung von ungefähr 26,15 MH/s bei 90 Watt raus. Den Nvidias fehlt halt schlicht die Rohleistung, weil die Chips seit Kepler nur noch auf Gaming ausgelegt sind.

flickflack schrieb:
Die 480er brauchen 120-130 Watt (GPU@920-950 MHz und undervolting, V-Ram läuft am Limit). Ich denke, dass trifft so auch auf die RX580 zu. Die GTX 1070 ist da effizienter (15-20% mehr Hashleistung, bei gleichem Verbrauch - dafür aber auch teurer).

Schätze ihr betreibt Cloud-Mining. Mögt ihr noch folgendes verraten:
  • Welchen Cloud-Mining Anbieter verwendet ihr?
  • Windows oder Linux?
  • Kennt ihr einen Profit Kalkulator, welcher auch die restlichen PC Komponenten miteinbezieht? Normalerweise ist der Rechner ja nicht 24/7 an.
  • Wie einfach ist das "anschalten" und "ausschalten", wenn man seinen PC zeitweise doch für Gaming verwenden möchte?

Besten Dank!
 
Wie messt ihr den euren Watt-Verbrauch? Wirklich mit einem externen Messgerät oder lest ihr das mit GPU-Z aus?
Wenn es um GPU-Z Watt Werte geht kann ich folgendes berichten:
480 mit 30,7Mh/s Ethereum und 490Mh/s Sia Coin 108W
470 mit 28,1Mh/s Ethereum und 450Mh/s Sia Coin 88W

@MaToBe
1. Cloud Mining beschreibt meines Wissens die Methode eben nicht selber die Hardware zu haben sondern diese irgendwo anzumieten und nur die Coins zu bekommen. Daher gehe ich davon aus das keiner hier Cloud Mining betreibt.
2. Windows
3. Nein. Aber da der Rest ja sonst nicht viel macht sollte es sich in Grenzen halten.
4. Kommt drauf an wie dein System aussieht.
Mit Claymore's Miner drückst du auf das X und könntest loslegen.
Da mein System aber zwei Windows Installationen hat, eine normale mit Gaming Stuff und eine fürs Mining, dauert der Wechsel bei mir ein paar Minuten. Zum einen weil ich das Gehäuse öffne und den Bios Switch umlege und zum anderen weil der Rechner halt noch einmal durchbooten muss.
 
Ich ziehe für 12x RX480er 1500-1700 Watt aus der Dose (also mit allen Komponenten, inkl. Boards, CPUs, NTs, etc.). Als Netzteile benutze ich die 1200 Watt HP-Server NTs mit 94% efficiency.

Gemined wird Ether im Pool (kein cloud-mining!!), die Rechner laufen 24/7 durch und sind so konfiguriert, dass sie über den Autostart und "Resart after Powerloss" von alleine wieder online gehen.

Ich benutze auch Windows 7.

Damit könnte man schon gamen, es läuft ja nur ein Programm im Fenster. Einfach den Miner zumachen und zocken geht -> so habe ich auch angefangen.
 
Was mich gerade irritiert ist, dass meine GTX1060 in Spielen mit 2200MHz Memory läuft, beim Minen aber nur mit 2100MHz, getestet mit zwei verschiedenen Minern. Ist das ein bekanntes Problem? Wenn ich Standardtaktraten anlege, werden die gehalten, nur bem Speicher-OC habe ich dieses Phänomen...

Ebenso habe ich den Effekt, dass nach 1h oder so die Hashrate abfällt, von ~21 auf 18.x also in etwa das, was ich durchs Memory-OC raushole.
 
Zuletzt bearbeitet:
Zurück
Oben