Microsoft nutzt Intel-FPGAs für Echtzeit-KI in Cloud-Services

| Redakteur: Sebastian Gerstl

Auf Basis von Stratix-10-FPGAs von Intel PSG erreicht Project Brainwave nach Angaben von Microsoft Rechengeschwindigkeiten von etwa 39 Teraflops für KI-Aufgaben in der Cloud.
Auf Basis von Stratix-10-FPGAs von Intel PSG erreicht Project Brainwave nach Angaben von Microsoft Rechengeschwindigkeiten von etwa 39 Teraflops für KI-Aufgaben in der Cloud. (Bild: Intel PSG)

Mit Project Brainwave verlegt sich Microsoft auf die Bereitstellung einer Künstlichen Intelligenz in Echtzeit über seinen Azure-Cloudservice. Das kündigte das Unternehmen auf der Fachkonferenz Hot Chips 2017 an. Grundlage für die Bereitstellung der „Echtzeit-KI“ bilden Stratix-10-FPGAs von Intel PSG.

Wie Microsoft in einem Blogbeitrag ausführt ist da Ziel von Project Brainwave, eine hardwarebeschleunigte Deep-Learning-Plattform bereitzustellen, die in der Lage ist, künstliche Intelligenz in Echtzeit für Cloudservices bereitzustellen. Microsoft präsentierte das Projekt erstmals auf der derzeit in Cupertino stattfindenden Hot Chips 2017, einem Symposium, auf dem Unternehmen die neuesten Errungenschaften im Anwendungsfeld von Halbleitertechnologien präsentieren.

Zu den Eigenschaften, die Project Brainwave mitberingen soll, gehören unter anderem Eigenschaften wie Gesichtserkennung und Spracherkennungsalgorithmen, die dann auf Embedded Devices und Smartphones genutzt werden können. Auch Cloudbasierte Datenverarbeitung zählt zu den angestrebten Anwendungsfeldern. Microsoft setzt hierfür auf drei verschiedene Bestandteile: eine leistungsfähige Cloud-Architektur, eine in den FPGAs synthetisierte Engine für neuronale Netze sowie einen Compiler und eine Laufzeitumgebung, um trainierte Modelle auszurollen.

Die Bereitstellung solcher „Echtzeit-KI“ ist wichtig für die latenzfreie Verarbeitung von live eingehenden Datenströmen. Dazu gehören Hochauflösende Videostreams, Sensordaten oder Suchbegriffe. Diese Daten müssen schnell übermittelt, verarbeitet und die Ergebnisse an den Anwender zurückgesendet werden, ohne dass der Nutzer eine größere Zeitverzögerung wahrnimmt.

Anders als Beispielsweise Googles TPU (Tensor Processing Unit), die ebenfalls auf maschinelles Lernen abzielt und sich auf spezielle ASICS, auch Tensorprozessoren genannt, stützt, verlässt sich Microsoft bei seiner Herangehensweise lieber auf die neuste Generation an reprogrammierbaren FPGAs. In diese lassen sich soganennte DPUs (Deep Neural Network Processing Units) in Form von Soft-Prozessor-IPs einprogrammieren.

Im Vergleich zu ASICS sei diese Lösung deutlich flexibler, da mit jeder individuellen Arbeitslast und Anforderung an das Neuronale Netzwerk jedes Mal flexibel zwischen verschiedenen Datentypen gewählt werden kann. In ASICS ist die Arbeitsweise dagegen starr. Darüber hinaus können in FPGAS selbst hardwarebezogene Neuerungen im maschinellen Lernen oder hinsichtlich schnellerer Datenkommunikation schnell nachgerüstet werden.

Wie Microsoft angibt, konnte Projekt Brainwave nachweislich bei einer einzelnen Abfrage über 39 TFLOPS an erzielter Leistung erreichen, was eine neue Standardmarke für Echtzeit-KI-Berechnungen in der Cloud darstelle. Die Verwendeten Stratix-10-FPGAs von Intel PSG (ehemals Altera) bieten laut Hersteller eine Rechengeschwindigkeit von 10 TFLOPS bei einfacher 32-Bit-Genauigkeit (FP32). Die hohen Geschwindigkeiten konnte Microsoft dadurch erreichen, da das Brainwave-System sich auf eine reduzierte Genauigkeit von 8 Bit (FP8) stützt. Dem Unternehmen nach sei dies im Bereich des Machine Learnings durchaus üblich.

Brainwave könne bisher für Machine-Learning-Anwendungen genutzt werden, die mit Microsofts Cognitive Toolkit umgesetzt worden sind oder mit Googles Tensorflow. Die Unterstützung für weitere Frameworks soll folgen.

Microsoft sieht Zukunft des Computing im massiven FPGA-Einsatz

Microsoft Build Conference

Microsoft sieht Zukunft des Computing im massiven FPGA-Einsatz

16.05.17 - Weil CPUs zu langsam sind, müssen FPGAs her: Auf der Microsoft-Entwicklerkonferenz Build 2017 hat Mark Russinovich, CTO von Microsoft Azure, einen Einblick in die Serverlandschaft des Unternehmens gegeben. Für den Clouddienst Azure stellen die programmierbaren Bausteine eine wichtige Ressource dar. lesen

So spürt Deep Learning Datenmuster auf

Big Data und Deep Learning

So spürt Deep Learning Datenmuster auf

31.12.16 - Die Zunahme an unstrukturierten Daten wie etwa Bildern, Blogs und Sprachbotschaften macht es ratsam, diese Massendaten automatisch erkennen zu lassen. Deep Learning, ein Unterbereich des Machine Learning, hilft bei der Erkennung dieser Daten und findet Muster in natürlicher Sprache, in Bildern und vielem mehr. lesen

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 44853610 / KI/Machine Learning)