Suchen

Microsoft nutzt Intel-FPGAs für Echtzeit-KI in Cloud-Services

| Redakteur: Sebastian Gerstl

Mit Project Brainwave verlegt sich Microsoft auf die Bereitstellung einer Künstlichen Intelligenz in Echtzeit über seinen Azure-Cloudservice. Das kündigte das Unternehmen auf der Fachkonferenz Hot Chips 2017 an. Grundlage für die Bereitstellung der „Echtzeit-KI“ bilden Stratix-10-FPGAs von Intel PSG.

Eines der FPGA-Boards von Microsofts Project Brainwave. Auf Basis von Stratix-10-FPGAs von Intel PSG erreicht Project Brainwave nach Angaben des Unternehmens Rechengeschwindigkeiten von etwa 39 Teraflops für KI-Aufgaben in der Cloud.
Eines der FPGA-Boards von Microsofts Project Brainwave. Auf Basis von Stratix-10-FPGAs von Intel PSG erreicht Project Brainwave nach Angaben des Unternehmens Rechengeschwindigkeiten von etwa 39 Teraflops für KI-Aufgaben in der Cloud.
(Bild: Microsoft)

Wie Microsoft in einem Blogbeitrag ausführt ist da Ziel von Project Brainwave, eine hardwarebeschleunigte Deep-Learning-Plattform bereitzustellen, die in der Lage ist, künstliche Intelligenz in Echtzeit für Cloudservices bereitzustellen. Microsoft präsentierte das Projekt erstmals auf der derzeit in Cupertino stattfindenden Hot Chips 2017, einem Symposium, auf dem Unternehmen die neuesten Errungenschaften im Anwendungsfeld von Halbleitertechnologien präsentieren.

Zu den Eigenschaften, die Project Brainwave mitberingen soll, gehören unter anderem Eigenschaften wie Gesichtserkennung und Spracherkennungsalgorithmen, die dann auf Embedded Devices und Smartphones genutzt werden können. Auch Cloudbasierte Datenverarbeitung zählt zu den angestrebten Anwendungsfeldern. Microsoft setzt hierfür auf drei verschiedene Bestandteile: eine leistungsfähige Cloud-Architektur, eine in den FPGAs synthetisierte Engine für neuronale Netze sowie einen Compiler und eine Laufzeitumgebung, um trainierte Modelle auszurollen.

Die Bereitstellung solcher „Echtzeit-KI“ ist wichtig für die latenzfreie Verarbeitung von live eingehenden Datenströmen. Dazu gehören Hochauflösende Videostreams, Sensordaten oder Suchbegriffe. Diese Daten müssen schnell übermittelt, verarbeitet und die Ergebnisse an den Anwender zurückgesendet werden, ohne dass der Nutzer eine größere Zeitverzögerung wahrnimmt.

Anders als Beispielsweise Googles TPU (Tensor Processing Unit), die ebenfalls auf maschinelles Lernen abzielt und sich auf spezielle ASICS, auch Tensorprozessoren genannt, stützt, verlässt sich Microsoft bei seiner Herangehensweise lieber auf die neuste Generation an reprogrammierbaren FPGAs. In diese lassen sich soganennte DPUs (Deep Neural Network Processing Units) in Form von Soft-Prozessor-IPs einprogrammieren.

Im Vergleich zu ASICS sei diese Lösung deutlich flexibler, da mit jeder individuellen Arbeitslast und Anforderung an das Neuronale Netzwerk jedes Mal flexibel zwischen verschiedenen Datentypen gewählt werden kann. In ASICS ist die Arbeitsweise dagegen starr. Darüber hinaus können in FPGAS selbst hardwarebezogene Neuerungen im maschinellen Lernen oder hinsichtlich schnellerer Datenkommunikation schnell nachgerüstet werden.

Wie Microsoft angibt, konnte Projekt Brainwave nachweislich bei einer einzelnen Abfrage über 39 TFLOPS an erzielter Leistung erreichen, was eine neue Standardmarke für Echtzeit-KI-Berechnungen in der Cloud darstelle. Die Verwendeten Stratix-10-FPGAs von Intel PSG (ehemals Altera) bieten laut Hersteller eine Rechengeschwindigkeit von 10 TFLOPS bei einfacher 32-Bit-Genauigkeit (FP32). Die hohen Geschwindigkeiten konnte Microsoft dadurch erreichen, da das Brainwave-System sich auf eine reduzierte Genauigkeit von 8 Bit (FP8) stützt. Dem Unternehmen nach sei dies im Bereich des Machine Learnings durchaus üblich.

Brainwave könne bisher für Machine-Learning-Anwendungen genutzt werden, die mit Microsofts Cognitive Toolkit umgesetzt worden sind oder mit Googles Tensorflow. Die Unterstützung für weitere Frameworks soll folgen.

(ID:44853610)