Movidius Neural Compute Stick

Intel präsentiert KI-Beschleunigung per USB-Stick

| Redakteur: Sebastian Gerstl

Der Movidius Neural Compute Stick ist das industrieweit erste USB-basierte Deep-Learning-Interference-Kit und bietet einen in sich geschlossenen Hardwarebeschleuniger für KI-Entwicklung, der dedizierte DNN (Deep Neural Network)-Verarbeitungsmöglichkeiten für Geräte bereitstellt.
Der Movidius Neural Compute Stick ist das industrieweit erste USB-basierte Deep-Learning-Interference-Kit und bietet einen in sich geschlossenen Hardwarebeschleuniger für KI-Entwicklung, der dedizierte DNN (Deep Neural Network)-Verarbeitungsmöglichkeiten für Geräte bereitstellt. (Bild: Intel)

Intel hat erstmals eine dedizierte eigenständige Hardware-Beschlunigung für Künstliche Intelligenz in Form eines USB-Sticks vorgestellt. Der Movidius Neural Compute Stick soll die Entwicklung, Feinabstimmung und Bereitstellung von KI-Systemen erleichtern.

Der Movidius Neural Compute Stick im kleinen Formfaktor kann direkt an den USB-Port eines x86-basierten PCs oder eines mit ARM-Kern ausgestatteten Einplatinenrechners wie dem Raspberry Pi angeschlossen werden. Er basiert auf der Myriad 2 VPU, einer vom Ki-fokussierten Startup Movidius entwickelten Bildverarbeitungsarchitektur. Movidius wiederum gehört seit Herbst 2016 zu Intel und ist Bestandteil der auf die Entwicklung von Künstlicher Intelligenz und Deep Learning fokussierten Unternehmungen des Prozessorenherstellers.

"Die Myriad 2 VPU im Movidius Neural Compute Stick stellt starke und zugleich effiziente Rechenleistung bereit." sagt Remi El-Ouazzane, VP und General Manager von Movidius. "Mehr als 100 GFLOPS an Leistung bei einem Stromverbrauch von 1W ermöglichen es, Deep Neural Networks in Echtzeit direkt von dem Gerät laufen zu betreiben. Das ermöglicht eine hohe Bandbreite an möglichen KI-Applikationen, die offline angewandt werden können."

Die Entwicklung maschineller Intelligenz sei laut El-Ouzzane grundsätzlich in zwei Stufen unterteilt. Zuerst müsse ein Algorithmus anhand von zahlreichen Datensätzen und mit Hilfe bewährter Technologien geschult werden. Im zweiten Stadium muss dieser Algorithmus dann auf einer Endanwendung zum Einsatz kommen, die in der Lage ist, Daten, die in der echten Welt gerade gesammelt werden, in Echtzeit zu verarbeiten und entsprechend schnell darauf zu reagieren. Dieses zweite Stadium bezeichnet Intel als "Interferenz" (engl. interference). Der Neural Compute Stick zielt auf eben jenen zweiten Bereich ab und wird daher auch speziell als ein "USB-based deep learning inference kit" bezeichnet wird.

Mit Hilfe dieses Kits soll es beispielsweise leicht möglich sein, ein Caffe-basiertes CNN (Convolutuional Neural Network) direkt für Embedded-Einsatz zu tunen und zu kompilieren, die auf der integrierten Myriad 2 VPU.läuft und mit Hilfe der hauseigenen Neural Compute Platform API angewandt wird.

Speziell der geringe Strombedarf dürfte den Stick für entsprechende KI-Projekte interessant machen. Zwar können ein dedizierter PC oder ein SoC auf Basis eines Qualcomm Snapdragon 835 Prozessors ebenfalls leicht 100 GFLOPS oder mehr bereitstellen. Doch diese Geräte benötigen hierfür wesentlich mehr Energie. Zudem können auch mehrere Neural Compute Sticks gemeinsam genutzt werden, wenn höhere Rechenleistung vonnöten ist. Auch der günstige angekündigte Preis von 79 US-$ setzt das Gerät gegenüber anderen aktuell verfügbaren Lösungen ab.

Intel versteift sich mit Nachdruck auf KI-Entwicklung

Künstliche Intelligenz

Intel versteift sich mit Nachdruck auf KI-Entwicklung

27.06.17 - Intel gibt weiter Vollgas auf dem eingeschlagenen Kurs in Sachen maschinelles Lernen und Künstliche Intelligenz. Mit CognitiveScale, AEye und Element AI investiert der Chiphersteller in drei weitere Unternehmen, die sich speziell auf die KI-Entwicklung verlegt haben. lesen

Xylophon-Roboter komponiert und spielt seine eigene Musik

Deep Learning und Big Data

Xylophon-Roboter komponiert und spielt seine eigene Musik

16.06.17 - Mit Hilfe von Big Data Analysen und Deep Learning ist ein Marimba-spielender KI-Roboter des Georgia Institute of Technology in der Lage, seine eigenen harmonischen Musikstücke zu komponieren und vorzutragen. lesen

So spürt Deep Learning Datenmuster auf

Big Data und Deep Learning

So spürt Deep Learning Datenmuster auf

31.12.16 - Die Zunahme an unstrukturierten Daten wie etwa Bildern, Blogs und Sprachbotschaften macht es ratsam, diese Massendaten automatisch erkennen zu lassen. Deep Learning, ein Unterbereich des Machine Learning, hilft bei der Erkennung dieser Daten und findet Muster in natürlicher Sprache, in Bildern und vielem mehr. lesen

Kommentar zu diesem Artikel abgeben
Im Text steht: Dieses zweite Stadium bezeichnet Intel als Interferenz (engl. interference). Ich...  lesen
posted am 26.07.2017 um 18:08 von HieronymusFischer


Mitdiskutieren
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 44799784 / IoT)