News Nvidia DGX-1: Supercomputer mit 8 Tesla P100 für künstliche Intelligenz

Shio schrieb:
Nene, die reine Transistorenanzahl gibt keine Auskunft darüber wie performant sie in Spielen ist.
Vorallem da jetzt wohl auch mehr auf die theoretische Leistung hin optimiert wurde so wie es ausschaut.

dass es ein HPC Design ist ist klar. Auch ist es reine Spekulation jup.

Für Spiele dürfte das DP recht uninteressant sein, pauschal gehe ich von ähnlicher Leistung / Shader aus wie bei Maxwell - ergo 3072 zu 3584 Shader (kein großer Gain). Die hohe Bandbreite bietet vllt 10-20% mehr Leistung (für Spiele). Der Takt ist hoch, ~1500 Mhz für ein Consumer Modell sind schon realistisch.

Ausgehend vom recht hohen Takt und Bandbreite sowie der Shaderanzahl denke ich dass es vllt auch um die 170% der GM200 Leistung ist, bei voller Aktivierung des Chips.

Vage Vermutungen bleibt es bzw Spekulation klar. Bisher konnte man immer recht gut über die Transistoren auf die spätere Gaming Performance gehen, gerade auch wenn man den Takt noch abschätzen konnte. TSMC 16nm klingen vielversprechend ausgehend von dem was Nvidia hier angibt. 1500 Mhz und 610mm² bei 300W sind schon ne Hausnummer.
 
motul300 schrieb:
Um sich wegen der ki sorgen zu machen ist es definitiv noch zu früh

hmm, glaube meine Wenigkeit und auch deine wissen nicht was alles hinter verschlossenen Toren herum experimentiert wird
 
Waelder schrieb:
hmm, glaube meine Wenigkeit und auch deine wissen nicht was alles hinter verschlossenen Toren herum experimentiert wird

Das dachte ich auch als AlphaGo gewann und MS kurz darauf ihr Tay anlaufen ließ.

Seit Snowden wissen wir ja jede Hobby-Aluhut-Fantasterei wird durch Profis in diesem Fach deutlich übertroffen.

Nach Stuxnet wird wahrscheinlich schon an der KI-Bombe gebastelt.
 
KI wird immer mit Menschlicher Intelligenz gleichgesetzt, dabei hat man es bis heute nicht geschafft, die Leistung eines Gehirns mit Gebäudefüllenden Supercomputern zu erreichen. Einige Forscher sind sich nicht mal sicher, ob das je gelingen wird, bis ein Computer wirklich kreativ und intuitiv jenseits von Algorithmen "denken" kann. Viel mehr als einigermaßen gut reagieren kann das Nvidia-Teil sowieso nicht.
 
Bzgl. Transistorzahl muss man wohl unterscheiden zwischen GP100 als GPU mit 15 Milliarden, und P100 als fertiges Package samt Speicher mit 150 Milliarden.

Ich denke das wurde bislang noch nicht klar geschrieben und stiftet daher etwas Verwirrung.
 
Ozmog schrieb:
KI wird immer mit Menschlicher Intelligenz gleichgesetzt, dabei hat man es bis heute nicht geschafft, die Leistung eines Gehirns mit Gebäudefüllenden Supercomputern zu erreichen. Einige Forscher sind sich nicht mal sicher, ob das je gelingen wird, bis ein Computer wirklich kreativ und intuitiv jenseits von Algorithmen "denken" kann. Viel mehr als einigermaßen gut reagieren kann das Nvidia-Teil sowieso nicht.

Hast du AlphaGo gesehen oder die neuen Ansätze bei KI verfolgt?

Das neue ist, dass Algorithmen nicht mehr beteiligt sind. Man versucht nur ein "leeres Gehirn" zur Verfügung zu stellen das lernen kann. Bei AlphaGo ging es gut weil man richtig und falsch am Spielergebnis ablesen kann. Bei Tay ging das fürchterlich in die Hose weil es deutlich schwerer war, ein Richtig und Falsch zu definieren.

Die Evolution hat Mio von Jahren Zeit gehabt, um am Hirn zu feilen. Gönne der KI doch wenigstens ein paar Jahrzehnte. :)

Aktuell stehen wir bei KI da wo die ersten Menschen sehnsüchtig in den Himmel schauten und sich wünschten sie könnten fliegen. Da schon zu erwarten, dass sie einen intergalaktischen Flug hinlegt finde ich verfrüht.

Schauen wir mal wie weit man mit neuronalen Netzen kommt. Aktuell wissen wir nur, dass KI bei Brettspielen jeden Menschen schlägt.
 
Genau das meine ich. Wir müssen uns von der Vorstellung verabschieden, dass sich wahre Intelligenz mit ein paar Algorithmen und ordentlich Rechenleistung realisieren lässt. Die Hardware spielt eine wesentliche Rolle bei selbstständigem Denken. Das alles alleine auf Basis von evolutionären Algorithmen oder sonstigem Zeugs abzubilden halte ich für schlicht nicht machbar.
 
Haldi schrieb:
Dq Crysis nur 1 core unterstützt und 2 16 core verbaut sind wäre die Antwort wohl 32 mal.

oder 32 mal Wundertreiber :evillol: :

geforce-graphics-driver-version-364-47-installation-issues-explained-501480-2.jpg



Naja ich traue Nichts und Niemanden weiter, als ich es/ihn/sie werfen kann.:verwandlung:
 
Da müsste man doch meinen, dass Forscher sich ihre Systeme nach ihren anforderungen selbst zusammenstellen :D

Auf dem gebiet bin ich mal sehr gespannt, was sich hier die nächsten 10-25 Jahre tut. Die Rechenleistung wird dabei wohl das geringste Problem sein. Ich bin mir nicht mal sicher, ob ein Computer intelligent sein kann. Dafür müsste man halt definieren, was man unter "intelligent" versteht. ich denke schon, dass Computer sich hoch spezialisieren können und durch mathematische methoden sinnvolle Entcheidungen treffen kann. Wie z.B. Spielcomputer, die eine vielzahl von Zügen lernen und die diese dann beim Spiel richtig einsetzen.

Das wird ein spannendes Thema, von dem ich nicht genug verstehe, um mir die Zukunft auszumalen. Ein spannendes Thema.
 
Wattwanderer schrieb:
Das dachte ich auch als AlphaGo gewann und MS kurz darauf ihr Tay anlaufen ließ.
Tay war ein Chat-Bot...
Jeder der schonmal in Knuddels angemeldet war, weiss wie man mit "Chat-Bots" Spricht...
sicherlich hat jeder schonmal diesen Ominösen "James" Beleidigt der lediglich eine Buttler-Funktion hat!
AlphaGo zeigt dagegen durchaus Intelligente "Handlungen"... AlphaGo gilt/galt als Schwerstes spiel der Welt...
Im AlphaGo gibt es mehr mögliche Züge als Atome im Universum.... Alleine DAS ist doch schon beeindruckend!


motul300 schrieb:
Um sich wegen der ki sorgen zu machen ist es definitiv noch zu früh

http://www.golem.de/news/robotik-mann-baut-lebensechten-scarlett-johansson-roboter-1604-120100.html
Besonders wichtig ist in dem Zusammenhang vielleicht
"Abgesehen von der ethischen Fragwürdigkeit soll es einer Rechtszeitschrift aus dem Jahr 1894 zufolge nicht erlaubt sein, einfach Wachsfiguren von jemandem herzustellen und zu zeigen - eine auf einen lebensechten Roboter durchaus übertragbare Einschätzung. "
Drei Beweise dass wir Mitten in der Entwicklung sind, und Zeit sich gedanken zu machen!

BuffyYasha schrieb:
Sind die SSD's nur per Sas Angeschlossen?
Gute Frage! Schnittstelle: SAS 12Gb/s • lesen: 1700MB/s • schreiben: 850MB/s Micron S610DC 1.92TB, SAS
Diese zusammen im Vierer RAID ... da geht EINIGES!....

http://www.welt.de/wirtschaft/webwe...speichert-360-Terabyte-fuer-die-Ewigkeit.html
https://www.computerbase.de/2016-02...-scheiben-fuer-ewigen-datenerhalt-und-360-tb/
Wenn also Lesen und Schreiben einmal mit 30.000MB/s und lesen mit 25.000MB/s möglich ist auf solchen Glasscherben dann gehts erstmal richtig rund mit KI! Soviel kann ich versprechen!

Diese 5D Storages sind "Optoelektronik"...
Und wenn wir uns aus dem Letzen Jahr die Neuste und Brutalste News saugen vom 28.05.2015 dann hat Avago (Chiphersteller und Optoelektronik-Spezialist) Broadcom (wir alle kennen Boardcom) für 37 Milliarden US Dollar gekauft (Der bislang größten Deal in der Halbleitergeschichte der Anfang 2016 abgeschlossen wird)

Deswegen hat Intel auch Altera am 01.06.2015 gekauft (Größter Konkurrent von Avago im FPGA bereich)


SimsP schrieb:
Naja ich bin nicht so überzeugt davon, dass die GPU die perfekte Architektur für KI ist.
Für deep learning sicher ein ganz interessanter Ansatz, aber ich denke für wirkliche Intelligenz mit eigenem Bewusstsein und selbstständigem Lernen wären dynamisch rekunfigurierbare Architekturen, seien es FPGAs oder Biocomputer, eine wesentlich größere Bereicherung. Leider wird dieses Thema immer noch viel zu stiefmütterlich behandelt, wie ich finde.
http://www.golem.de/news/serverprozessor-intel-zeigt-xeon-e5-mit-altera-fpga-1508-115873.html
http://www.heise.de/newsticker/meldung/Milliarden-Deal-Intel-kauft-FPGA-Riesen-Altera-2672327.html
http://www.heise.de/newsticker/meld...programmierbaren-FPGAs-von-eASIC-2647823.html

Siehe oben!
Wenn in diesen Xeons "FPGA's" stecken, die in diesem Komplettsystem verbaut sind, ist es kein Stiefmütterliches Thema sondern etwas Ernstes worüber man Diskutieren kann
Somit ist FPGA also direkt im Markt und "Zeigt" was es kann!

SimsP schrieb:
Genau das meine ich. Wir müssen uns von der Vorstellung verabschieden, dass sich wahre Intelligenz mit ein paar Algorithmen und ordentlich Rechenleistung realisieren lässt. Die Hardware spielt eine wesentliche Rolle bei selbstständigem Denken. Das alles alleine auf Basis von evolutionären Algorithmen oder sonstigem Zeugs abzubilden halte ich für schlicht nicht machbar.

Siehe oben
Nun gehen wir mal auf Wikipedia und Schauen uns an, was FPGA so kann
Anders als bei der Programmierung von Computern oder Steuerungen bezieht sich hier der Begriff Programm nur in zweiter Linie auf die Vorgabe zeitlicher Abläufe im Baustein, sondern vor allem auf die Definition von dessen Funktionsstruktur. Durch die Programmierung der Verschaltung der vorgegebenen Elemente wird die Funktionsweise einzelner Blöcke im FPGA und deren Verschaltung untereinander festgelegt. Man spricht daher auch von der Konfiguration eines FPGA.

Funktionsprinzip
Durch die spezifische Konfiguration interner Strukturen können in einem FPGA verschiedene Schaltungen realisiert werden. Diese reichen von Schaltungen geringer Komplexität, wie z. B. ein einfacher Synchronzähler, bis zu hochkomplexen Schaltungen wie Mikroprozessoren. FPGAs werden in allen Bereichen der Digitaltechnik eingesetzt, vor allem aber dort, wo es auf schnelle Signalverarbeitung und flexible Änderung der Schaltung ankommt, um beispielsweise nachträgliche Verbesserungen an den implementierten Funktionen vornehmen zu können, ohne dabei direkt die physische Hardware ändern zu müssen
Mikroprozessoren


FPGAs bilden je nach Konfiguration beliebige Anordnungen digitaler Schaltungsfunktionen ab und bieten damit grundsätzlich die Möglichkeit, Informationen vollkommen parallel zu verarbeiten. So können die anfallenden Datenflüsse in Bandbreite und Informationstiefe optimal einander angepasst werden. Schnell zu erfassende Signale werden dabei oft voll parallel mit Kopien identischer Schaltungsblöcke, langsamer auftretende Signale vermehrt zyklisch mit einer einzigen Schaltung und damit platzsparend verarbeitet.

Externe Prozessoren können dagegen mit wenig Hardware sehr komplexe und verschachtelte Programme sequentiell abarbeiten. Bei einem FPGA müsste für jede Operation ein eigenes Stück Hardware synthetisiert werden, wobei sich die eingeschränkte Anzahl an Logikgattern begrenzend auswirkt
was heisst das für uns?
"evolutionäre Algorithmen oder sonstiges Zeug" ist "überflüssig" nochmal: FPGAs werden in allen Bereichen der Digitaltechnik eingesetzt, vor allem aber dort, wo es auf schnelle Signalverarbeitung und flexible Änderung der Schaltung ankommt, um beispielsweise nachträgliche Verbesserungen an den implementierten Funktionen vornehmen zu können
Jetzt denk mal an dein Gehirn ...
"Wir müssen uns von der Vorstellung verabschieden, dass sich wahre Intelligenz mit ein paar Algorithmen und ordentlich Rechenleistung realisieren lässt."
Immernoch der Meinung?

Gehen wir von einem BIG BIG BIG Pascal aus oder einer BIGGGG VEGA mit Totaler Anbindung des HBM2 (Immer daran denken! AMD hat "Kundenvorteil" da HBM Mitentwickler)
-> Zurück denken an Radeon Pro Duo (16 TFLOPS )...
Diese Karte basiert auf Fiji-GPU's also noch HBM1 Wenn also VEGA mit angenommen 32GB HMB2 kommt, bist du dann immernoch der meinung dass sich Wahre Intelligenz mit ein paar Algorithmen mit Ordentlich Rechenleistung NICHT Realisieren lässt?

Weisst du wie sich die "FLOPS" entwickelt haben über die vergangenen Jahre?
Eines vorweg... TFLOPS 10^12 ist erst der "Anfang"... da kommen noch PetaFLOPS 10^15, ExaFLOPS 10^18 , ZettaFLOPS 10^21 und YottaFLOPS 10^24...

1984 M-13 2,4 GFLOPS
1997 ASCI Red/9152 1,33 TFLOPS
2002 NEC Eart Simulator 35,86 TFLOPS ...( Radeon Pro Duo 16TFLOPS / P100 21,2 TFLOPs )
2005 BlueGene 136,80 TFLOPS (32.768 Prozessoren) (Nvidia DGX-1 ~170TFLOPS!!! für 120.000€...!! 2x E5-2698 v3 + 8xP100))
2008 IBM Roadrunner 1,105 PFLOPS
2011 K computer 10,51 PFLOPS
2012 Titan 17,59 PFLOPS (18.688x AMD Opteron 6274 "Interlagos" und 18.688x Nvidia Tesla K20X"Kepler" (1,31TFLOPS) (erinnerung P100 21,2TFLOPS))
2013 Tianhe-2 33,86 PFLOPS (Basiert auf 32000x Xeon E5-2692 "Ivy-Bridge" und 48000x Xeon Phi 31S1P "Knights Corner (1,01TFLOPS)" (bald kommt Knigts-Landing!)
2016/17/18? .... "Skylake-E/"ZEN" + VEGA/P100/Knights-Landing?
... und wir sind "erst" neu bei 14nm... Warte mal bis die ersten 7nm/5nm 202x rauskommen!

Immernoch der Meinung??

Quonux
https://www.computerbase.de/forum/t...ata-center-santa-clara.1574232/#post-18661568
Intels Data Centre
Was Berechnen die da?... Les die Kommentare
Wer sagt dass dieses Data Centre nicht GENAU auch für sowas ausgelegt ist?
Wieso soll immer ein MENSCH eine "gute idee" haben? Vielleicht gibt es ähnliche Data Zentren die genau nach solchen Algorithmen suchen?
Albert Einstein, Gordon Moore und wie sie nicht alle heißen sind aus dem 20. Jahrhundert!
Wieso sollte es im 21. Jahrhundert nicht auch so Schlaue Menschen geben? oder gar "Computer"?
Also? Alles nur eine kleine Frage der Zeit...
Die Erste Glühbirne wurde wann erfungen? 1890?... Quasi ein "Katzensprung"...

OT:
Und Denken wir mal an die ganzen HMD's /VR-Headsets!....
DAS ist erst Gen.1 ...
Warum sollte man nicht schon in Gen.2 versuchen EEG-Headsets zu bauen? Zumindest Teilweise...
und wenn nicht dann in Gen.4 ...
Mit den VR/HMD's setzen wir uns die Dinger doch Freiwillig auf! Warum nicht auch "Forschen" damit? ;)
 

Anhänge

  • 800px-Supercomputer.svg.png
    800px-Supercomputer.svg.png
    24 KB · Aufrufe: 532
Zuletzt bearbeitet:
Zu dem Thema (schwache) KI:

Mein persönliches Gefühl dazu ist dass die Rechenleitung für starke KI, human like intelligence, artificial general intelligence etc. egal ist, da zählen nur gute Ideen und "primitive" Implementationen (die es noch nicht gibt).

Bei der Rechenleistung für das alzu gehypte DL ist es egal ob sie mit FP32, FP16 oder weniger bits gerechnet wird, (der Trend in DL geht zur Zeit zum Rechnen mit weniger und weniger Präzision) es löst keine Theoretischen und Praktische Probleme.

Und zum Thema FPGA: FPGA's sind algorithmen in Hardware, die Hardware erfüllt keinen Zweck wenn wir noch keinen Algorithmus haben, was der Fall ist.

Bis wir starke KI/AGI haben kann es 5 Jahre dauern oder 500 zu 5000 wenn niemand die Richtige Ideen einbringt oder einfach irgendwo was fehlt.
 
motul300 schrieb:
Um sich wegen der ki sorgen zu machen ist es definitiv noch zu früh

Laut einer Umfrage unter führenden Wissenschaftlern wird die erste Intelligenz die jener des Menschen ebenbürtig ist irgendwo zwischen 2030 und 2100 das Licht der Welt erblicken und ab da geht es vermutlich noch schneller als bisher nach oben. Nur ein paar wenige Prozent vermuteten etwas nach 2100. Das wäre für viele hier möglicherweise noch zu Lebzeiten. Vor allem wenn man die medizinischen Fortschritte bzw. die steigende Lebenserwartung mit einrechnet.

Hab den Artikel zur Umfrage leider nicht hier, sollte aber vermutlich im Netz zu finden sein.
 
Oh, ich schaffe es bestimmt schneller, AlphaGo auf menschliches Niveau zu verdummen. :)

Frage mich aber wofür man einen Computer brauchen sollte der in allen Belangen den Menschen ebenbürtig sein soll. Wenn so etwas entstehen sollte, dann nur als "Unfall". Eher wird man Computer bauen die bei der Lösung konkreter Problemen den Menschen überlegen sind.
 
Gleich mal einen kaufen. Brauch noch einen Grillanzünder.
 
Also einen Computer mit einem menschlichen Gehirn zu vergleichen ist einfach nur falsch, da kann man ja gleich ein Dieselmotor mit Photosynthese vergleichen!
Ein menschliches Gehirn funktioniert auf eine komplett andere Weise als ein Computer!
Computer sind reine Mathematik und darauf aufgebaut, da der Mensch den Computer erschaffen hat und damit weiß man wie ein Computer funktioniert!
Selbst heute weiß man noch nicht wie ein Gehirn funktioniert, man weiß welche Regionen für welche Dinge zuständig und kann die Aktivitäten messen aber mehr nicht!

Zuerst sollte mal geklärt werden was Intelligenz ist!

Ich bin dafür, dass man zwischen zwei Formen der Intelligenz unterscheiden sollte zwischen Menschlicher- und Maschinen Intelligenz!

Außerdem für was benötigt man eigentlich eine KI?
Ein Toaster der nicht Torsten will, weil er die digitale Tage, Pubertät hat oder ich ihn beleidigt habe oder mir dumme fragen stellt!

Zum Thema:

Nette Maschine nur ein bisschen teuer für den Hausgebrauch!
 
Wofür benötigt man so eine KI mit Intelligenz auf Menschlichen Niveau?

Um solche dummen Fragen zb. zu beantworten. Allgemein kann man jedes Forum automatisieren aber darum geht es nicht.

> Eher wird man Computer bauen die bei der Lösung konkreter Problemen den Menschen überlegen sind.
Haben wir doch schon, das steckt in jedem Browser den du grade offen hast (memory managment, just in time compilation, layout berechnungen, etc), im Auto und im Toaster steckt auch viel menschenüberlegene Spezialintelligenz. Zb. berechnet ein Computer im Auto ganz genau wann gezündet werden soll (ist nicht so einfach), etc etc etc.
Ja da kann ein normale Mensch sagen "das ist nicht wirklich intelligenz", darum geht es in AGI/Hum like intelligence etc.

Wozu braucht man das....tzzz

Es kann auch Spiele spielen und Spiele entwickeln, oder neue Computer oder bessere Grafikkarten (jetzt bin ich wieder ontopic)... aber das wird man nicht sehen und wenn man es sieht explodiert sowieso alles.
 
Quonux schrieb:
Haben wir doch schon, das steckt in jedem Browser den du grade offen hast (memory managment, just in time compilation, layout berechnungen, etc), im Auto und im Toaster steckt auch viel menschenüberlegene Spezialintelligenz

Wie bitte? Du hast ja ein lustiges Verständnis von Intelligenz. Was Du hier beschreibst, das sind simple Algorithmen. Das, was hier das Bemerkenswerte ist, das ist schlicht und einfach die Ausführungsgeschwindigkeit. Mit KI hat das hier ganz und gar nichts zu tun.
 
Für JIT benötigst du zb. Graph coloring, schauen wir mal was es da so für paper über graphcoloring gibt

http://arxiv.org/abs/1011.5349

Da steht "artificial intelligence" als Kategorie, also ist es (schwache) KI.


Natürlich ist es ein Himmelweiter unterschied zu AGI / "richtige" KI, da stimme ich zu.
 
Zurück
Oben