News Intel NNP zur AI DevCon: Spring Crest folgt Lake Crest mit vierfacher Leistung

Volker

Ost 1
Teammitglied
Dabei seit
Juni 2001
Beiträge
14.369
#1
Intels erste Generation eines Neural Network Processor (NNP) mit dem Codenamen Lake Crest ist bei Partnern im Test, da kündigt der Hersteller auf der heutigen AI Developers Conference bereits den Nachfolger Spring Crest an. Dieser soll bereits im kommenden Jahr verfügbar werden und die drei- bis vierfache Leistung bieten.

Zur News: Intel NNP zur AI DevCon: Spring Crest folgt Lake Crest mit vierfacher Leistung
 

Vasilev

Lt. Junior Grade
Dabei seit
Sep. 2013
Beiträge
445
#2
... und wie schaut es da aus mit dem "Mircocode"... :rolleyes:
 

Vissi

Lieutenant
Dabei seit
Dez. 2015
Beiträge
658
#3
Wäre für Leser wie mich ganz hilfreich, die nicht wissen, was genau ein Neural Network Processor ist, wenn in 3 Sätzen das noch erklärt worden wäre.
 
Dabei seit
Apr. 2015
Beiträge
785
#4

Nai

Lt. Commander
Dabei seit
Aug. 2012
Beiträge
1.482
#5
Wenn mich nicht alles täuscht (ich habe dazu noch kein whitepaper gefunden), sollten das weitgehend normale prozessorkerne sein, deren Rechenwerke darauf optimiert sind, sehr performant diejenigen Rechenoperationen ausführen zu können, die für neuronale Netzwerke sehr häufig gebraucht werden.
 

Steeeep

Lt. Commander
Dabei seit
Dez. 2013
Beiträge
1.193
#6
Bestimmt Xeon Phi mit Atom kernen wo die AVX einheiten gegen Tensorcores ausgetauscht wurden.
 

ascer

Commander
Dabei seit
Juni 2008
Beiträge
2.700
#7
Das ist auch so, aber Google's TPUs sind (1) Google-intern, d.h. andere Unternehmen, Presse, Wissenschaft, ... interessiert das nicht so stark, da sie ohnehin keinen Zugriff auf die Hardware haben und (2) soweit ich weiß nur deshalb so effizient, weil sie konkret auf Google's Libraries ausgelegt sind. Auf einer Tesla kann man für pre-/post-processing etwa bei Computer Vision Tasks ja auch OpenCV und zig andere in der Wissenschaft, Robotik, ... übliche Libraries beschleunigen.

Die TPUs sind afaik NN-only. Wobei das ja aber auch nicht tragisch ist, wenn man dann andere Beschleuniger oder schlicht dicke Xeon's oder Epyc's im Rechenzentrum hat (die aufgrund ihrer langjährigen Historie als Server-CPUs ja sehr gut mit fast jeder herkömmlichen Software skalieren), dann reicht es natürlich auch wenn die TPUs nur die NN-Simulationen stemmen und der Rest ausgelagert ist.

Nichtsdestoweniger gibt es selbstredend Szenarien wo es ganz nett ist, mehr als nur die NNs selbst auf einem Beschleuniger wie einer Tesla laufen zu lassen.

Gerade im sehr mobilen Bereich, etwa bei Drohnen, Robotern, ..., muss man sich wegen der Leistungsaufnahme ja sehr beschränken und eine NVIDIA-GPU bekommt eine ganze Anzahl an pre-/post-processing tasks, die neben einem NN ja häufig anfallen, recht effizient berechnet.
 

ascer

Commander
Dabei seit
Juni 2008
Beiträge
2.700
#9

nebulus

Lt. Commander
Dabei seit
Mai 2015
Beiträge
1.751
#10

ascer

Commander
Dabei seit
Juni 2008
Beiträge
2.700
#11
Dabei seit
Okt. 2006
Beiträge
4.038
#12
Bei dem Titelbild dachte ich noch so:
"Intel verbaut ja auch VEGA bei sich, warum nehmen die jetzt nen kompletten Fiji?"



Fiji als AI-Geheimwaffe :D das wäre eine Totenbeschwörung aller erster Kajüte.
 

ascer

Commander
Dabei seit
Juni 2008
Beiträge
2.700
#13
Top