ROCm

Sushilini

Cadet 1st Year
Registriert
Okt. 2020
Beiträge
8
Hallo,

mein urspruengliches Projekt, einen Desktop Computer fuer das heimische Buero, AI und kleinen Science Projekte anzufertigen, ist aufgrund von Lieferschwierigkeiten bei NVidia und der vor der Tuer stehenden neuen Prozessorgeneration erstmal in die Zukunft verschoben. (https://www.computerbase.de/forum/threads/pc-fuer-die-arbeit-zum-selber-bauen.1975644/)

Nichtsdestotrotz ging die Rechere weiter. Das alte Hardware gespann (Intel/NVidia, aber hier soll es nur um die GPUs gehen) finde ich entgegen AMD sehr enttaeuschend: Die GPUs sind im Gegensatz zu denen von AMD sehr viel teurer, und die Treiber der privaten GPU's haben nicht zugriff auf die CUDA Funktionen der professionellen Graphikkarten. Der Grund, warum ich denoch am Ende des Tages zu einer NVidia greifen muss, ist, dass alle mir bekannten Programme, die auf der GPU laufen (tensorflow, PyTorch etc.) mit CUDA parallisiert sind. Dachte ich noch vor wenigen Tagen. AMD scheint Resourcen zu haben fuer die Entwicklung ihrer eigene library, ROCm, die mitlerweile auch mit Tensorflow funktioniert, und, wenn ich das richtig verstehe, auch als Converter von CUDA code funktioniert. Wenn AMD damit tatsaechlich am Ende erfolgreich ist, und sie es schaffen, dass CUDA Code nicht neu geschrieben werden muss, sehe ich das potenzial, dass AMD auch im HPC NVidia zumindest ernsthaft Konkurrenz machen kann. Oder, anders gesagt, dass AMD den gleichen Coupe schlaegt wie gegen Intel.

Hat irgendwer Erfahrung gesammelt mit ROCm (sei es Coding, Benchmarks, Conversion, what ever?), und ist bereit, seine Einschaetzung zu dem Thema abzugeben?

Besten Gruss
 
Sushilini schrieb:
Hat irgendwer Erfahrung gesammelt mit ROCm (sei es Coding, Benchmarks, Conversion, what ever?), und ist bereit, seine Einschaetzung zu dem Thema abzugeben?

Ja ich. Vorab: derzeit halte ich das aktuelle ROCm für unbenutzbar (3.8). Ich hatte eine Weile mit ROCm 3.7/HIP auf Ubuntu 18.04 gearbeitet und auch ein paar Simulationsbenchmarks gegen nVidia gefahren. Wärend ROCm 3.7 mit einiger Tüftelei stabil installierbar und benutzbar war, ist 3.8 (derzeit) "broken". Ich ärgere mich total, dass ich das funktionierende 3.7 heruntergeschmissen und "zu optimistisch" 3.8 draufgemacht habe. Bzw. wollte, denn es ist nicht installierbar und keiner weiß, woran das liegt.

Bei meinen Simulationen (MD, 50,000 Atome) ist eine Vega56 mit ROCm/HIP 3.7 (auf langsamer CPU, i7/2600K) marginal schneller als eine GTX-980/CUDA:
1603709527472.png
Aber jetzt habe ich, nach etlichen frustrierenden Versuchen, ROCm/HIP erstmal aufgegeben. Eine RTX 2060S ist schon deutlich schneller, etwa im Bereich einer GTX 1080. Leider habe ich dafür keine vergleichbaren Werte mit der langsamen CPU, aber es sollte etwa um 12 bis 14 ns/day liegen.
 
  • Gefällt mir
Reaktionen: Piktogramm, Kanibal und andy_m4
Sushilini schrieb:
Wenn AMD damit tatsaechlich am Ende erfolgreich ist, und sie es schaffen, dass CUDA Code nicht neu geschrieben werden muss, sehe ich das potenzial, dass AMD auch im HPC NVidia zumindest ernsthaft Konkurrenz machen kann.
Also solche Converter-Projekte sind ja nix Neues. Im Gegenteil. Wie oft gabs in der Historie schon den Gedankenansatz wie haben hier Programmiersprache X die aber nicht wirklich gut funktioniert und Programmersprache Y ist besser und damit wir unseren alten Code nicht neu schreiben müssen, konvertieren wir den X-Code halt nach Y.

Und das Problem dabei ist immer und immer wieder, das selbst wenn sie 95% des Codes gut übersetzen das Dir die restlichen 5% so viel Ärger beschweren, das es Dir so richtig den Tag versaut.

Insofern bin ich da mal vorsichtig skeptisch. :-)

Kompliment übrigens an nvidia wie sie es geschafft haben CUDA gegenüber dem eigentlich besseren OpenCL so nach vorne zu pushen. Da kann man mal sehen, was Marktmacht alles so bewirkt. :-)
 
Zurück
Oben