News Nvidia DGX Station: Vier wassergekühlte Tesla V100 als Mini-Supercomputer

Das Benutzerhandbuch schreibt von 512 GB, verteilt auf 16 Slots. Das klingt etwas plausibler. ;)

http://images.nvidia.com/content/technologies/deep-learning/pdf/DGX-1-UserGuide.pdf
 
Ich bin dann mal der lustige..

Läuft Crysis damit flüssig?
 
Hm, mal überlegen.
Einen neuen Porsche GT3 oder eine Nvidia DGX Station...Ich glaube, ich entscheide mich für den Porsche! :D
 
wenn man genau drüber nachdenkt gibt es fast in jedem Bereich Themen die sich für Self Learning eigenen würden. Sei es Verkehrsnetz oder auch so ziemlich jede Fertigungsstraße. Zb im Automobilbereich.

Hatte mit AI noch nix am Hut aber es wäre schon mal interessant reinzuschnuppern :)
 
Die 960 resp. 480 Teraplops sind hier mit FP16 angegeben. Normalerweise sind es doch aber FP32 (einfache Genauigkeit) bzw FP64 (doppelte Genauigkeit). FP16 sind also nur "halbe Genauigkeit". Zwischen FP32 (4x15Teraflops) und FP 16 liegt wieder mal der Faktor 8 an. Ich nehme mal an, dass es auch so bei FP32 zu FP64 ist??

Wie auch immer, fair wäre eine Angabe mit 60 Teraflops bzw. 120 für 8 Karten gewesen. Da ich selber 80 Teraflops mit 12x RX480 für knapp 4500 Euro am laufen habe, haut mich das jetzt nicht so aus den Socken. Die neuen Karten sind natürlich trotzdem nice to have.:D
 
Dr.Helium schrieb:
Da ist mir fast die Milch aus der Nase gekommen. "Kleine Unternehmen ohne Server-Infrastruktur" vs "69000 $" :lol:
Ich muss dazu sagen ich weiß nicht was Volta bzw. Tesla sonst kosten, habe aber nicht mit so einem Preis gerechnet wenn von kleinen Firmen ohne Server geredet wird.

Das ist wohl wortwörtlich zu nehmen. Die meinen den Platz, ansonsten gibt das keinen Sinn. Ich meine, welches kleine Unternehmen hätte nicht Platz für doppelt so große, dafür aber nur halb so teure Systeme?

"Wie brauchen unbedingt einen besseren Computer!"
"Du weist doch, dafür haben wir keinen Platz!"
"Schau mal, hier, wir schmeißen da einfach den Seifenspender raus, da passt das locker hin!
"Gute Idee!"
 
DarkerThanBlack schrieb:
Hm, mal überlegen.
Einen neuen Porsche GT3 oder eine Nvidia DGX Station...Ich glaube, ich entscheide mich für den Porsche! :D

Ich nehm die DGX Station. Da sieht man mal, wie unterschiedlich die Geschmäcker sind. :D
Ergänzung ()

flickflack schrieb:
Die 960 resp. 480 Teraplops sind hier mit FP16 angegeben. Normalerweise sind es doch aber FP32 ...

Die FP16 Halbgenauigkeit ist eine rechentechnische Optimierung für Deep Learning. Deswegen kann man die Werte nicht mehr einfach so über die Gens vergleichen.
 
DarkerThanBlack schrieb:
Hm, mal überlegen.
Einen neuen Porsche GT3 oder eine Nvidia DGX Station...Ich glaube, ich entscheide mich für den Porsche! :D

Bei weitem nicht so schön wie die ruhig gelegene Eigentumswohnung! Zwar schneller, aber nicht so ruhig. :D
Ergänzung ()

flickflack schrieb:
Die 960 resp. 480 Teraplops sind hier mit FP16 angegeben. :D

Sind das die Plops mit dem Finger aus der Mundecke? :D
 
Zurück
Oben