News Nvidia DGX-1: Supercomputer mit 8 Tesla P100 für künstliche Intelligenz

MichaG

Redakteur
Teammitglied
Registriert
Juli 2010
Beiträge
12.909
Wurde schon gefragt, ob Crysis darauf flüssig laufen kann?

PS: Ja... :)

Ob man so ein Teil in 10 Jahren in seinem Handy haben wird...
Oder in dem Kopf der Roboter-Freundin :)
 
Zuletzt bearbeitet:
Schick schick. Mist, dass mit Crysis wurde schon gefragt. :p

Künstliche Intelligenz..., ich weiß nicht. Ich habe ständig nur Skynet vor Augen, ...hoffe man baut stets eine Hintertür in sowas ein.
 
Sind die SSD's nur per Sas Angeschlossen?
 
Naja ich bin nicht so überzeugt davon, dass die GPU die perfekte Architektur für KI ist.
Für deep learning sicher ein ganz interessanter Ansatz, aber ich denke für wirkliche Intelligenz mit eigenem Bewusstsein und selbstständigem Lernen wären dynamisch rekunfigurierbare Architekturen, seien es FPGAs oder Biocomputer, eine wesentlich größere Bereicherung. Leider wird dieses Thema immer noch viel zu stiefmütterlich behandelt, wie ich finde.
 
terraconz schrieb:
Im Kopf muss ja nicht viel Rechenpower stecken! *duck und weg*

*Dich abfangen um dich in die Deckung zu ziehen und dich zu High-Fiven*

Trimipramin schrieb:
Künstliche Intelligenz..., ich weiß nicht. Ich habe ständig nur Skynet vor Augen, ...hoffe man baut stets eine Hintertür in sowas ein.

Das würde bei Skynet ja nichts bringen.

SimsP schrieb:
wirkliche Intelligenz mit eigenem Bewusstsein

Wir wissen doch nicht was Bewusstsein ist, bzw. können es nichtmal nachweisen.
 
Okay.
Wenn du mich fragst, ob ich ein Bewusstsein habe, und ich sage ja, habe ich eins?
Jeder Computer kann dasselbe sagen. Hat der dann auch ein Bewusstsein?

Man kann Bewusstsein weder qualitativ, noch quantitativ nachweisen.
Und medizinisches Bewusstsein (=Wachsamkeit + Gehirnfunktion) != (sich selbst) Bewusst( )sein.

Und jetzt komm mir bitte nicht mit Fluidum, Seele, oder das was bei Harry Potter rauskommt, wenn ein Dementor an denen lutscht. :p
 
Trimipramin schrieb:
Künstliche Intelligenz..., ich weiß nicht. Ich habe ständig nur Skynet vor Augen, ...hoffe man baut stets eine Hintertür in sowas ein.

Soweit ich mitbekommen habe ist die größte Gefahr bei künstlichen Intelligenzen bzw. Superintelligenzen, dass diese "zufällig" und unbemerkt intelligent genug wird um den Menschen als Bedrohung oder Störfaktor für die zugedachte Funktion zu erkennen. Und laut den Experten wird es früher oder später zu einer solchen Superintelligenz kommen. Da finde ich es beruhigender, dass sich einige Leute bewusst damit beschäftigen eine solche Intelligenz zu schaffen und dabei solches Verhalten zu verhindern suchen.
 
Artikel-Update: Im Showcase der GTC 2016 durften nach der Keynote auch die ersten Hersteller entsprechende Systeme ausstellen. Mit dabei ist eine Lösung von QuantaPlex, die auf zwei Mainboards einmal die beiden Xeon-Prozessoren und auf der anderen Platine die acht Tesla P100 setzt und diese in einem flachen 3U-Gehäuse unterbringt. Die Anordnung der Tesla-Karten ist dabei extrem dicht gestaltet, was aufgrund der neuen Anschlüsse der Karten auf der Rückseite möglich ist.
[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
burnbabyburn2 schrieb:
man könnte auch frage wie oft kann es den Crysis ausführen ?
Dq Crysis nur 1 core unterstützt und 2 16 core verbaut sind wäre die Antwort wohl 32 mal.


SimsP schrieb:
aber ich denke für wirkliche Intelligenz mit eigenem Bewusstsein und selbstständigem Lernen wären dynamisch rekunfigurierbare Architekturen, seien es FPGAs oder Biocomputer, eine wesentlich größere Bereicherung. Leider wird dieses Thema immer noch viel zu stiefmütterlich behandelt, wie ich finde.
Gibt es ja bald die Intel Chips mit FPGA aufm die.

Viel interessanter find ich eig. Das Nvidia für deep learning FP16 vorschlägt.
So im Sinne, Fehler passieren eh, scheiss auf Genauigkeit. Das märzen wir durch die schiere Menge einfach weg.
 
Die Anordnung der Tesla-Karten ist dabei extrem dicht gestaltet, die aufgrund der neuen Anschlüsse der Karten auf der Rückseite möglich werden.

Keine Ahnung, ob der Satz noch korrektes Deutsch ist.
Weil die Anschlüsse der Karten auf der Rückseite sind, können die Tesla-Karten dicht gestaltet werden?
Und was bedeutet "dicht gestaltet"? Der Abstand der einzelnen Teslas zueinander, die Bauteile der Teslas, oder beides?
 
Es ist wohl noch ein weiter Weg, bis man (endlich) an das Große rangekommen ist und was gleichwertiges zum menschlichen Gehirn erschaffen hat. Allein der Energieverbrauch: Hier beim DGX-1 bis zu 3.200 Watt, während das Gehirn bei ca. 20 W liegt (und dabei in allen Bereichen der Technik noch haushoch überlegen).

Hätte Nvidia das menschliche Gehirn erfunden, dann hätten sie bei dessen Ankündigung auf ihrer Hausmesse erstmal eine Attrappe aus Holz gezeigt :D Und bei den ersten Tests hätte man festgestellt, dass ein Teil der Speicherkapazität extrem langsam angebunden ist :king:
 
Der Superkomplettrechner wird 129.000 US-Dollar kosten und soll bereits im Juni in den Vereinigten Staaten erhältlich sein. Andere Regionen sollen ab dem dritten Quartal bedient werden.

das ist früher als gedacht - nachdem es neulich ja noch Spekulationen um massive Probleme bei P100 / Big Pascal gab.

9-1080.4049648055.jpg


lässt sich anhand der HBM Stacks nich die Größe des P100 DIE gut berechnen? Wäre mal interessant.

 
Zuletzt bearbeitet:
Faust2011 schrieb:
Es ist wohl noch ein weiter Weg, bis man (endlich) an das Große rangekommen ist und was gleichwertiges zum menschlichen Gehirn erschaffen hat. Allein der Energieverbrauch: Hier beim DGX-1 bis zu 3.200 Watt, während das Gehirn bei ca. 20 W liegt (und dabei in allen Bereichen der Technik noch haushoch überlegen).

Hatte eher 60W in Erinnerung aber egal...

Es wird noch sehr lange dauern bis Computer das Gehirn in Sachen Effizienz schlägt. Im Gegensatz zum Gehirn ist aber ein Computer weder vom Volumen noch Energieverbrauch beschränkt. Man kann ein beliebig großes Rechenzentrum samt ein paar Atomkraftwerken bauen.

Ich habe noch ein Spruch der Michael Dell zugeschrieben wurde im Kopf: Wir können jetzt schon Computer mit der Komplexität des menschlichen Gehirns bauen. Nur die Stromrechnung wird keiner zahlen wollen.

Das war vor vielen, vielen Jahren aber wie lange dauert es wohl, bis wir so etwas unter dem Schreibtisch haben?
 
Shio schrieb:
610mm² laut der vorigen News.

das wäre für 16nm + HBM SI aber heftig groß ^^

150 Mrd Transistoren schreibt Anandtech, müsste aber eher 15 sein oder? GM200 hat glaub 8 Mrd, 15 Mrd beim P100 wären angesichts 16nm dann logisch.

Edit: in der Tabelle stimmts:



Bei 610 mm² muss da steil etwa 2x so schnell sein als ne GTX 980 TI. Auf die neue TITAN freu ich mich ;)

Ich bleib dennoch dabei dass es da 2017 wird.
 
Zuletzt bearbeitet:
Kommt mal runter, was soll dieser nVidia Spam? Ja, ne neue Generation von Grafikkarten, noch weit weg, und jetzt gibt es einen PC mit 8 Stück für "künstliche Intelligenz" (weil es ja so neu und toll ist) und ne extra News (zwischen zwei anderen)? Schon klar.
Wenigstens gibt es keinen Anlass sich über die Intelligenz Sorgen zu machen bei so einer Bestückung...
 
Krautmaster schrieb:
Bei 610 mm² muss da steil etwa 2x so schnell sein als ne GTX 980 TI. Auf die neue TITAN freu ich mich ;)

Ich bleib dennoch dabei dass es da 2017 wird.

Nene, die reine Transistorenanzahl gibt keine Auskunft darüber wie performant sie in Spielen ist.
Vorallem da jetzt wohl auch mehr auf die theoretische Leistung hin optimiert wurde so wie es ausschaut.

bzgl Datum:
CB-News zu P100 schrieb:
Wann „Big Pascal“ als GeForce-Karte im Handel erscheinen wird, ist noch völlig fraglich. Es erscheint nicht unwahrscheinlich, dass dies erst Anfang des nächsten Jahres der Fall sein wird. Der kleinere GP104 als Nachfolger des GM204 und Ablöse der GeForce GTX 980 sowie GeForce GTX 980 Ti wird gegen Mitte des Jahres erwartet.

Kommt mal runter, was soll dieser nVidia Spam?

Neuigkeiten sind nun Spam? Leseschwierigkeiten?
 
Zurück
Oben