Suchen

Movidius Neural Compute Stick Intel präsentiert KI-Beschleunigung per USB-Stick

| Redakteur: Sebastian Gerstl

Intel hat erstmals eine dedizierte eigenständige Hardware-Beschlunigung für Künstliche Intelligenz in Form eines USB-Sticks vorgestellt. Der Movidius Neural Compute Stick soll die Entwicklung, Feinabstimmung und Bereitstellung von KI-Systemen erleichtern.

Firma zum Thema

Der Movidius Neural Compute Stick ist das industrieweit erste USB-basierte Deep-Learning-Interference-Kit und bietet einen in sich geschlossenen Hardwarebeschleuniger für KI-Entwicklung, der dedizierte DNN (Deep Neural Network)-Verarbeitungsmöglichkeiten für Geräte bereitstellt.
Der Movidius Neural Compute Stick ist das industrieweit erste USB-basierte Deep-Learning-Interference-Kit und bietet einen in sich geschlossenen Hardwarebeschleuniger für KI-Entwicklung, der dedizierte DNN (Deep Neural Network)-Verarbeitungsmöglichkeiten für Geräte bereitstellt.
(Bild: Intel)

Der Movidius Neural Compute Stick im kleinen Formfaktor kann direkt an den USB-Port eines x86-basierten PCs oder eines mit ARM-Kern ausgestatteten Einplatinenrechners wie dem Raspberry Pi angeschlossen werden. Er basiert auf der Myriad 2 VPU, einer vom Ki-fokussierten Startup Movidius entwickelten Bildverarbeitungsarchitektur. Movidius wiederum gehört seit Herbst 2016 zu Intel und ist Bestandteil der auf die Entwicklung von Künstlicher Intelligenz und Deep Learning fokussierten Unternehmungen des Prozessorenherstellers.

"Die Myriad 2 VPU im Movidius Neural Compute Stick stellt starke und zugleich effiziente Rechenleistung bereit." sagt Remi El-Ouazzane, VP und General Manager von Movidius. "Mehr als 100 GFLOPS an Leistung bei einem Stromverbrauch von 1W ermöglichen es, Deep Neural Networks in Echtzeit direkt von dem Gerät laufen zu betreiben. Das ermöglicht eine hohe Bandbreite an möglichen KI-Applikationen, die offline angewandt werden können."

Die Entwicklung maschineller Intelligenz sei laut El-Ouzzane grundsätzlich in zwei Stufen unterteilt. Zuerst müsse ein Algorithmus anhand von zahlreichen Datensätzen und mit Hilfe bewährter Technologien geschult werden. Im zweiten Stadium muss dieser Algorithmus dann auf einer Endanwendung zum Einsatz kommen, die in der Lage ist, Daten, die in der echten Welt gerade gesammelt werden, in Echtzeit zu verarbeiten und entsprechend schnell darauf zu reagieren. Dieses zweite Stadium bezeichnet Intel als "Interferenz" (engl. interference). Der Neural Compute Stick zielt auf eben jenen zweiten Bereich ab und wird daher auch speziell als ein "USB-based deep learning inference kit" bezeichnet wird.

Mit Hilfe dieses Kits soll es beispielsweise leicht möglich sein, ein Caffe-basiertes CNN (Convolutuional Neural Network) direkt für Embedded-Einsatz zu tunen und zu kompilieren, die auf der integrierten Myriad 2 VPU.läuft und mit Hilfe der hauseigenen Neural Compute Platform API angewandt wird.

Speziell der geringe Strombedarf dürfte den Stick für entsprechende KI-Projekte interessant machen. Zwar können ein dedizierter PC oder ein SoC auf Basis eines Qualcomm Snapdragon 835 Prozessors ebenfalls leicht 100 GFLOPS oder mehr bereitstellen. Doch diese Geräte benötigen hierfür wesentlich mehr Energie. Zudem können auch mehrere Neural Compute Sticks gemeinsam genutzt werden, wenn höhere Rechenleistung vonnöten ist. Auch der günstige angekündigte Preis von 79 US-$ setzt das Gerät gegenüber anderen aktuell verfügbaren Lösungen ab.

(ID:44799784)