Python Machine Learning/Data Sciene - Gute Grafikkarte notwendig?

HerrDrachen

Lieutenant
Registriert
Feb. 2016
Beiträge
589
Hallo,

ich will bald auf udemy mit Machine Learning/Data Sciene anfangen,
also in R/RStudio/Python.

Meine Frage: Ist dazu eine teure und gute Grafikkarte notwendig?(ich habe gar keine Graka)
Ich habe nämlich mal in einem Kurs gesehen, dass für solche Berechnungen
leistungsfähige Grafikkarten notwendig sind.
Schließlich werden die Modelle mit sehr, sehr vielen Daten gefüttert.
Und gute Nvidia Grafikkarten sind für A.I. optimiert.
 
Je nach dem wie groß deine Modelle sind, schadet es sicherlich nicht, wenn du eine GPU zur Verfügung hast.
Eine GTX 10x0 gibt da schon sehr ordentlich Leistung, die 20x0 sind da dann nochmal wesentlich besser. Bei größeren Modellen auch wichtig: Viel VRAM.
Damit du mal einen Vergleich hast (auch wenn dir die Begrifflichkeiten vllt noch nichts sagen):
Ich musste für ein Uni-Projekt 14.000 Tweets auf bestimmte Kriterien untersuchen lassen. Eine Epoche hat auf der CPU (i7-2600k) alleine ca. 2-3h gerechnet. Auf der GPU (1080Ti) waren es noch 5 Minuten.
 
Es gibt auf dem Gebrauchtmarkt Nvidia Karten für das DataMining. Musst halt schauen inwieweit die zu deinen Projekten passen.
 
HerrDrachen schrieb:
Hallo,

ich will bald auf udemy mit Machine Learning/Data Sciene anfangen,
also in R/RStudio/Python.
Warts ab bis du soweit bist dir über die Verarbeitung solcher Datenmengen gedanken zu machen ;). Du scheinst ja erst damit anfangen zu wollen. Zu beginn reicht dir auch die CPU Leistung, weil es wird ehe mit kleineren Mengen gearbeitet um es anschaulich zu Zeigen.
 
  • Gefällt mir
Reaktionen: BeBur und BAGZZlash
Ja, direkt am anfang die gpu kaufen ist wirklich komplett falschrum angefangen
Lern erstmal gut Programmieren. Trainingsspeed hält dich niemals vom Erfolg ab.

Außerdem kann man für sehr wenig Geld bei zB AWS cpu&gpu „leihen“. Einmal das ganze Gerödel in nen Docker werfen und online ausführen lassen. Bringt einen berufsqualifizierend weiter, als selbst am PC schrauben ;)
 
@TE
Welchen Kurs genau bei Udemy hast du den gebucht?
 
Richtig, fang einfach an. Die normalen Kurse setzen nie eine GPU voraus. Es geht auch gar nicht so sehr darum, dass du eine GPU bei vielen Datenmengen benötigst, sondern eher bei komplexeren Modellen und auch die werden dir zu Beginn nicht über den Weg laufen.

Sollte es ein guter Kurs sein, wirst du nichts weiter benötigen als deinen Computer. Die Grundlagen zu verstehen ist viel wichtiger, als Tonnen von Daten in ein Training zu stecken oder riesige komplexe Modelle zu schaffen ohne zu wissen was da eigentlich passiert und an welchen Schrauben man drehen kann und muss.

Ich kann dieses Buch noch empfehlen: Hands-on Machine Learning with Scikit-Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques to Build Intelligent Systems

Wenn Englisch kein Problem ist und seien wir ehrlich, das sollte es nicht, könnte sich das auch noch lohnen.
 
Hast du die beiden für den Preis gekauft oder gabs die in Aktion zu dem Zeitpunkt?
 
Ich hab das gekauft, als es im Angebot war(natürlich).
Habe pro Kurs 9,99€ bezahlt.
 
  • Gefällt mir
Reaktionen: G-Red
Hey also wie meine Vorredner schon korrekt gesagt habe, hat GPU acceleration extreme Vorteile, wenn du sie nutzt. Ich kenne mich zwar bei R aus aber nicht im ML Bereich dort, deshalb weiß ich nicht ob du das ein GPU backend hast. Ich programmiere selbst ML Modelle in Python. Falls du Sklearn verwendest, dann macht eine GPU keinen Sinn da es eh nicht verwendet wird. Bei Tensorflow sieht das anders aus, dort wird die GPU genutzt.
Die Vorteile sind extrem. Habe mal eine NVidia Tesla K80 gegen meinen i5-1038ng7 (4c/8t) getestet und sie brauchte ungefähr ein zehntel der Zeit. AMD wird über einige Hacks unterstützt, es läuft aber deutchlich besser mit Nvidia dank Cuda. (Bei AMD wird CUDA nach OpenGL übersetzt, was natürlich nicht ganz effizient ist.) Zudem ist das Setup für tensorflow GPU bei Windows so schon kompliziert genug haha.

Bevor du jetzt aber rausrennst und die eine GPU kaufst, schau dir bitte http://colab.research.google.com an. Dort kriegt du gratis einen Dualcore Prozessor, 13GB Ram und eine Nvidia Tesla K80. Es läuft alles in der Cloud und ist kostenlos für 12 Stunden Sessions. Du hast unbegrenzt viele 12h Sessions, das Training darf nur nicht länger als 12h am Stück dauern.

Der einzige Nachteil: Es geht nur mit Python und nicht R. Btw, extra Module installierst du direkt im Code mit "!pip install ... " und "import ... ".
Ergänzung ()

Edit: Habe mir kurz den Kurs angeschaut und GPU support kommt erst ab Keras, was ein Bonus Kapitel am Ende ist. (Keras ist eine high level API welche Tensorflow oder andere Frameworks als Backend nutzt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: G-Red
@DaysShadow

Danke für die Buchempfehlung!
Ich hab das Buch mal geladen und sehe es mir gerade an.
Englisch kann ich sehr gut.
 
@HerrDrachen Vielleicht kaufst du es dann auch bei Gelegenheit mal...
 
  • Gefällt mir
Reaktionen: Rossibaer und blöderidiot
Zurück
Oben