NVIDIA GeFoce MX350: CUDA-Support

AugmentedR3al

Newbie
Dabei seit
Juli 2020
Beiträge
7
Hallo,

Ich überlege mir einen neuen Laptop zu kaufen, da ich in letzter Zeit viel mit PyTorch programmiere und es mit meinem aktuellen sehr lange dauert ein NN zu trainieren. Um das ganze zu beschleunigen brauche ich einen Laptop mit einer NVIDIA-GPU.
Ich habe jetzt auch einen mit einer GeForce MX350, der ein ziemlich gutes Preis-Leistungs-Verhältnis hat, gefunden. Ich bin mir selbst nach Recherche aber immer noch nicht sicher ob diese GPU CUDA Development unterstützt.
Falls jemand bescheid weiß bitte melden.

Vielen Dank im Vorraus,
AR
 
Zitat von AugmentedR3al:
Ich bin mir selbst nach Recherche aber immer noch nicht sicher ob diese GPU CUDA Development unterstützt.

Say what? Erster Treffer bei Google liefert doch alles, was Du wissen musst. Aber ja: Die Karte hat CUDA Support, allerdings wirst Du je nach Tiefe bzw Anzahl der Layer keine Freude damit haben. Große Sache kannst Du mit der Karte direkt abhaken. Für Einsteigerprojekte wäre es aber okay.
 
Vielen Dank für deine Antwort,

ich hatte bei meiner Recherche vor allendingen auf dieser Seite geguckt und da mir unterschiedliche Seiten unterschiedliche Ergebnisse gebracht haben, wollte ich einfach sicher gehen.

MfG, AR
 
Da hast Du Dir ja eine der schwächeren Karten rausgesucht. Aus Erfahrung kann ich sagen, daß Du erst ab ca. 1060/2060, eher mit 1070/2070 einen merkbaren guten Leistungsboost haben wirst.
 
Korrekt, wir setzen DL und Co. für diverse Analysen ein. Kollegen verwenden hier aktuell überwiegend Jupyther Notebook ein mit den entsprechenden Cuda-Erweiterungen und eben diversen Python-Addons mit diversen Quadro-Konfigurationen. Mein Schwiegersohn in spe arbeitet ebenso in diesem Umfeld, sie verwenden mehrere 2080TI-Cluster, 4fach pro Server, weil ihnen die Quadros zu teuer sind, und diese hier auch einen guten Job dafür tun.

Hier hast Du mal einen Vergleich von einer RTX 2060 und einer GTX 1080 mit DL Benchmarks.
https://towardsdatascience.com/rtx-...t-rtx-vs-most-expensive-gtx-card-cd47cd9931d2

Am besten wäre natürlich eine Quadro Karte, aber die ist in Notebooks selten und doch etwas teuerer. Eine RTX 2060 ist schon ein guter Kompromiss und auf alle Fälle besser als die MX350. Wenn Dir die Laufzeit wirklich auf den Keks geht, dann klar in eine 2070/2080 mit 8GB investieren.
https://lambdalabs.com/blog/choosing-a-gpu-for-deep-learning/

Alles mit einer älteren Generation Pascal vergiß mal schön, wozu die von Dir gewählte MX350 gehört. Die Turing GPUs sind für DL und Co. in der RTX Reihe einfach um eine gute Klasse besser.
 
Zuletzt bearbeitet:
Zurück
Top