News Nvidia HGX-2: 16 GV100-GPUs über NVSwitch jetzt auch als Rack-Einschub

Jan

Chefredakteur
Teammitglied
Dabei seit
Apr. 2001
Beiträge
10.540
#1
Nvidia bietet die Kombination aus 16 GV100-GPUs über den selbst 2 Mrd. Transistoren fassenden NVSwitch mit insgesamt 81.920 Shadern und 2 PFLOPS Leistung jetzt auch im Format für Racks in Rechenzentren an. Zur GTC hatte der Konzern das auf AI- und Compute-Berechnungen ausgelegte System bereits als autarken Rechner DGX-2 gezeigt.

Zur News: Nvidia HGX-2: 16 GV100-GPUs über NVSwitch jetzt auch als Rack-Einschub
 

franeklevy

Vice Admiral
Dabei seit
Juni 2006
Beiträge
6.432
#3
Dabei seit
Mai 2015
Beiträge
3.347
#4
Dass jetzt schon 64 GB HBM2 in den GV100 Quadro-Karten verbaut werden, finde ich für den Normalsterblichen, der keine DGX-2 Systeme nutzt, schon interessanter/relevanter:


Huangs Werbepräsentation/-ansprache auf der GTC mit neuer/frischer Lederjacke dreht sich wohl vornehmlich um Supercomputer, aber das liegt wohl auch am GTC Publikum ... scheinbar werden wohl nur 10000W für die DGX-2 (bisher größte Grafikkarte) fällig.
 
Zuletzt bearbeitet:
Dabei seit
Sep. 2006
Beiträge
790
#6
Ne, das ist mir zu teuer.
 
Dabei seit
Mai 2015
Beiträge
2.012
#7
Dann kanns ja jetzt los gehen in China mit der Komplettüberwachung und Gesichtserkennung im öffentlichem Raum. Je mehr Rechenleistung diese Server bekommen, um so mehr Freiheit geht auf der anderen Seite verloren.
Ist London nicht die Stadt mit dem dichtestem KameraNetz im öffentlichem Raum?

Bildschirmfoto-2017-11-13-um-17.jpg


teaser-bild-fuer-feature-china.jpg
 
Dabei seit
Juni 2005
Beiträge
3.479
#8
Ich warte lieber bis Samsung oder Apple die Leistung ins Handy packt. :)

10 KW. Das müssen ja ganze Schränke sein und nicht nur Rack Einheiten?
 

estros

Vice Admiral
Dabei seit
Sep. 2009
Beiträge
7.071
#10
Irre was da möglich ist. Und die Rechenleistung wird wenigstens sinnvoll genutzt, als bei unsereins Gamern.:D
 
Dabei seit
Feb. 2012
Beiträge
4.002
#11
Dabei seit
Feb. 2008
Beiträge
2.881
#12
Nvidia steht für Fortschritt. Mehr Fortschritt bedeutet mehr Einkommen und mehr Einkommen bedeutet frische und neue Lederjacken, von daher kann ich Fortschritt nur begrüßen.

Tatsächlich aber muss man festhalten, dass man hier für "nur" 400k USD eine Leistung bekommt, die im November 2010 noch in der Top 10 aller Supercomputer weltweit gewesen wären und ein solcher "Super Computer" ist in Wahrheit viel mehr ein ganzes Haus mit mehreren Stockwerken, tausenden von CPUs und teilweise eigenem Stromhäuschen vom Netzbetreiber. Und in Anbetracht dessen muss man neidlos anerkennen, dass Nvidia einfach tatsächlich unaufhaltsam scheint, Prozessoren können da nicht mehr mithalten und demnach bleibt nur noch die winzige Konkurrenz in Form von AMD Grafikkarten, die aber mehr als nur ein paar Jahre hinterher sind. Künftige Supercomputer werden immer mehr solche GPUs verbauen, weil die Software ohnehin 100% auf die Hardware zugeschnitten wird und man damit einfach mal 10x mehr Leistung fürs gleiche Geld erreicht
 

estros

Vice Admiral
Dabei seit
Sep. 2009
Beiträge
7.071
#13
Ja, NVIDIA hat den Markt rechtzeitig erkannt und sich zu 100% auf diesen konzentriert. HBM2 spielt denen bei den aktuellen Produkten auf jedenfall super in die Karten. Was natürlich nicht heißen soll, dass Intel hier zurück war, ihre Knights Landing haben sie frühzeitig entwickelt, wohl jedoch mit diesem Produkt den Markt verschätzt.
 
Dabei seit
Sep. 2006
Beiträge
1.406
#14
Das traurige daran ist eher, AMD Entwickelt den HBM mit, setzt als erstes drauf (Fury) obwohl noch nicht optimal. Jetzt wo das Potenzial da ist, gehen sie fast leer aus und unbeteiligte sichern sich die Margen.
Wirtschaft hat halt nix, mit Gerechtigkeit zu tun. Nur der Geldbeutel entscheidet.
 

estros

Vice Admiral
Dabei seit
Sep. 2009
Beiträge
7.071
#15
Traurig? Nein, NVIDIA wird auch schon seinen Teil dazu beigetragen haben, dass HBM optimal mit Volta läuft.
AMDs Geschäftsbereiche sind nun mal wirklich andere. Ihr Geschäft mit Konsolen erfordert momentan kein HBM und ihre Karte für Endkunden sind gut für HBM entwickelt. Dass Vega ein Misserfolg ist, liegt nicht an deren HBM Integrierung.
 
Dabei seit
Sep. 2006
Beiträge
1.406
#16
NV ist wie Appel. Selber alles Closed machen und gute Ideen von anderen klauen und nix dafür tun/ ausgeben.
Wenn sich FreeSync im TV Bereich durchsetzen sollte, können es bestimmt die NV Karten plötzlich.
AMD hat am HBM mit entwickelt, nicht nur eine GPU dafür.
Das ist der Unterschied.
Für Vega gab es Langezeit nicht genügend HBM2, woran das wohl lag? 😕
 
Dabei seit
Jan. 2002
Beiträge
2.887
#17

DjangOC

Lt. Commander
Dabei seit
Sep. 2013
Beiträge
1.620
#18
Tatsächlich aber muss man festhalten, dass man hier für "nur" 400k USD eine Leistung bekommt, die im November 2010 noch in der Top 10 aller Supercomputer weltweit gewesen wären und ein solcher "Super Computer" ist in Wahrheit viel mehr ein ganzes Haus mit mehreren Stockwerken, tausenden von CPUs und teilweise eigenem Stromhäuschen vom Netzbetreiber. Und in Anbetracht dessen muss man neidlos anerkennen, dass Nvidia einfach tatsächlich unaufhaltsam scheint, Prozessoren können da nicht mehr mithalten
Du vergleichst gerade Tensor Core FLops mit DP Flops??? rly?

Rechne 16*7.9 TFLOPS, dann hast du eine Vergleichsbasis.
 

digger66a

Lt. Junior Grade
Dabei seit
Feb. 2008
Beiträge
369
#19
Kommt nur mir das Teil ziemlich Strom hungrig vor ?
Was verbraucht so ein Dual Sockel 24 core 1.5 Tb + paar HDD`s und SSD`s
Ich bin mal sehr großzügig und sage 2.5 KW.
Bleiben 8 KW für 16 GPU`s und 12 NV-Switches.
Eine GPU ist angegeben mit 300 Watt macht 4.8 KW.

Bedeutet das jetzt das die NV Version von Infinity Fabric (NV-Switch) 2.7 KW verbraucht?
Also gut 225 Watt pro Switch?
Wo ist mein Denkfehler?

Gruß Digger
 
Dabei seit
Okt. 2006
Beiträge
995
#20
Da wäre der Preis der HGX-2 im Mittel mal interessant. Ich würde vermuten das bei dem Ding das ganze immer ausgehandelt wird. Ansonsten ist das ganze schon eine ziemlich brachiale Rechenleistung.
 
Top