News Microsoft: AI-Chips auch für Surface-Serie aus eigener Entwicklung

Jan

Chefredakteur
Teammitglied
Registriert
Apr. 2001
Beiträge
15.183
Panos Panay, Chef der Surface-Sparte von Microsoft, hat den Einsatz von in Eigenregie entwickelten AI-Chips auch für die Surface-Serie und weitere Produktgruppen in Aussicht gestellt. Dass der Konzern bei AI auf eigenes Silizium setzen will, war bereits bekannt, die HoloLens 2 soll einen solchen Co-Prozessor bieten.

Zur News: Microsoft: AI-Chips auch für Surface-Serie aus eigener Entwicklung
 
Also ein Co-Prozessor, der vor allem gut darin ist, Matrizen zu multiplizieren und FFT etc. in Hardware implementiert hat für ConvNet, was dann auch für den Rest wie MLP, k-means und die ganzen Algorithmen passt. Also genau das, was eine CPU mit AVX bzw. AVX512 auch gut kann, oder eben jede heutige GPU.

Aber gut, nennen wir es eben AI-Chip.
 
KI besteht ja aus zwei Phasen. Für das Lernen wird viel Rechenleistung benötigt. Das gelernte abzurufen braucht man nur einen Bruchteil davon.

Ich nehme an Alphago hat etliche MWh verbraten bis er Go gelernt hat. Um das gelernte abzurufen und den besten Spieler der Welt zu deklassieren reichten wohl wenige KWh.

Welche der Aufgabe soll der KI Chip übernehmen? Lernen oder gelernte abrufen?
Wenn er lernen soll werden die paar mW wohl kaum größere Sprünge ermöglichen. Wenn das Lernen im Cloud passieren soll, warum nicht die gesamte KI in die Cloud auslagern?
 
Intel bedient zusätzlich den mobilen AI Markt mit Intel Movidius VPU. Der ist auch schon in einzelnen Drohnen zu finden.
Der ist ebenfalls als Movidius Neural Compute USB Stick verfügbar.
 
Zuletzt bearbeitet:
Skynet lässt grüßen ;).
Aber mal ernsthaft mir erschließt sich der sinn dieser AIchips in mobilen Geräten (noch) nicht. Ein eigener chip der nur für objekte in der bilderkennung oder für gesichtserkennung da sein soll. Mein Lumia hat keinen AI chip und hat einen Irisscanner der sehr gut funktioniert.
Und was die hersteller einem da wirklich verkaufen weis eh keiner so richtig.
 
Also genau das, was eine CPU mit AVX bzw. AVX512 auch gut kann, oder eben jede heutige GPU.
​Informier dich mal - und frag dich, wieso man in dem Bereich gerne Grafikkarten einsetzt ;)

Wenn das Lernen im Cloud passieren soll, warum nicht die gesamte KI in die Cloud auslagern?
​Kein Internet -> Keine Auswertung.

​Außerdem müssen für die Auswertung ggf. persönliche Daten das Gerät verlassen. Vielleicht nicht ganz so toll...

​Mal davon abgesehen wäre es eventuell auch effizienter einen winzigen Chip anzusteuern als einen Funkchip.

Wenn er lernen soll werden die paar mW wohl kaum größere Sprünge ermöglichen.
​Fürs Lernen selbst mag man sicher kein Rechenzentrum ersetzen können, aber eventuell reicht die Leistung von dem Chip fürs Lernen von Livedaten.
 
Zurück
Oben