Microsoft Build Conference

Microsoft sieht Zukunft des Computing im massiven FPGA-Einsatz

16.05.17 | Redakteur: Sebastian Gerstl

Mark Russinovich, CTO von Microsoft Azure, auf der Build-Entwicklerkonferenz 2017. Nach Ansicht des Technikchefs stellt Hardwarebeschleunigung mittels FPGAs das Rückgrat und die Zukunfts wichtiger Trends des Cloudcomputings dar, wie etwa Big Data oder Maschinelles Lernen.
Mark Russinovich, CTO von Microsoft Azure, auf der Build-Entwicklerkonferenz 2017. Nach Ansicht des Technikchefs stellt Hardwarebeschleunigung mittels FPGAs das Rückgrat und die Zukunfts wichtiger Trends des Cloudcomputings dar, wie etwa Big Data oder Maschinelles Lernen. (Bild: Microsoft)

Weil CPUs zu langsam sind, müssen FPGAs her: Auf der Microsoft-Entwicklerkonferenz Build 2017 hat Mark Russinovich, CTO von Microsoft Azure, einen Einblick in die Serverlandschaft des Unternehmens gegeben. Für den Clouddienst Azure stellen die programmierbaren Bausteine eine wichtige Ressource dar.

Seit 2010 bietet Microsoft seinen Clouddienst Azure an, der sich in den letzten Jahren zunehmend zu einem zukunftsträchtigen Standbein für das Unternehmen entwickelt. Auf der hausinternen Entwicklerkonferenz Build 2017 in Seattle hat der zuständige Technikchef Mark Russinovich nun einige Einblicke in den Aufbau der Plattform gewährt – und sich offen dazu bekannt, dass in den Augen von Microsoft die Zukunft des Computing in FPGA-Bausteinen liegt.

Seit 2011 setzt Microsoft die programmierbaren Bausteine verstärkt ein; inzwischen seien sämtliche Azure- sowie die für die Suchmaschine Bing zuständigen Server mit FPGAs ausgestatttet. Nur so, äußerte Russinovich, sei sowohl eine hohe Geschwindigkeit des Clouddienstes als auch die notwendige Grundlage zur Hardwarebeschleunigung von Deep Neural Networks möglich. FPGA-gestützte Cloudserver bilden somit das Rückgrat für gegenwärtige wie auch für zukünftige Computing-Trends wie Internet of Things und Maschinelles Lernen bzw. Künstliche Intelligenz.

Auf der Ignite-Konferenz 2016 hatte Microsoft vergangenes Jahr erstmals bekannt gegeben, Cloudserver, die mit FPGAs als zusätzliche Hardware-Beschleunigern ausgestattet sind, auch für Endkunden zur Verfügung zu stellen.

Microsoft setzt hier bei CPUs wie FPGAs auf Intel-Bausteine: Während die programmierbare Logik sich um die Beschleunigung des 40-Gigabit-Ethernets (40GbE) kümmert, können sich die verwendeten Xeon-Prozessoren um die volle Rechenauslastung kümmern.

In seinem knapp einstündigen Vortrag auf der diesjährigen Build-Konferenz demonstrierte Russinovich nun konkret anhand mehrerer Benchmarks auf Azure-Systemen den FPGA-Offload. Ohne FPGAs konnte demnach auf dem 40GbE-Adapter nur Netzwerkgeschwindigkeiten von 4 GBit/s erreicht werden. Mit zugeschaltetem FPGA stieg dieser Wert auf 25 GBit/s. Dieser Wert, so Russonivoch, sei zwar sicher nicht ideal, aber er ist in jedem Fall stabil . Die netzwerkbedingte CPU-Last sinkt dabei in dem SDN nahezu auf null.

Ähnlich deutlich verbessert sich zudem die Latenz: Statt 145 Mikrosekunden sind es nur noch 31 Mikrosekunden Verzögerung durch den FPGA-Baustein – in der Theorie wenigstens. In der Praxis konnte Russinovich aber auch zufriedenstellende Verbesserungen erkennen, etwa bei deutlich schnelleren SQL-Abfragen.

Somit biete die Azure-Plattform eine in der Form noch nicht dagewesene "Leistung, Flexibilität und Skalierbarkeit, um mittels super-niedriger Netzwerk-Latenz dem weltweit größten Investment in FPGAs zum Durchbruch zu verhelfen", so Russinovich. Er gehe davon aus, dass Microsoft in Zukunft so weit sein könnte, um auch in anderen Feldern FPGA-Ressourcen über Azure anbieten zu können. Als konkrete Beispiele nannte er dabei etwa Deep Learning oder neurale Netze. Ziel sei es, Azure zu einer programmierbaren, konfigurierbaren Cloud zu machen.

Die Bedeutung von FPGAs für High-Performance-Computing

Das MANGO-Projekt

Die Bedeutung von FPGAs für High-Performance-Computing

18.01.17 - Im EU-Förderprojekt MANGO werden Multi-Kern-Architekturen für zukünftige High-Performance-Computing-Systeme erforscht. Im Projekt wird ein neuer Ansatz verfolgt, verschiedene Prozessor-Kerne wie High-End-CPUs, Graphikprozessoren und FPGAs zu kombinieren, um höchst anspruchsvolle Anforderungen verschiedenster Anwendungen zu erfüllen. lesen

Microsoft eröffnet Insider-Lab für IoT und Künstliche Intelligenz in München

Maschinelles Lernen

Microsoft eröffnet Insider-Lab für IoT und Künstliche Intelligenz in München

02.04.17 - Microsoft errichtet nach Redmond, USA und Shenzhen, China ein weiteres IoT & AI Insider Lab in München. Das Münchner Labor soll Unternehmenskunden aus Europa, dem Mittleren Osten und Asien (EMEA) ein produktives Umfeld bieten, um IoT- und KI-Projekte effizient voranzutreiben. lesen

So spürt Deep Learning Datenmuster auf

Big Data und Deep Learning

So spürt Deep Learning Datenmuster auf

31.12.16 - Die Zunahme an unstrukturierten Daten wie etwa Bildern, Blogs und Sprachbotschaften macht es ratsam, diese Massendaten automatisch erkennen zu lassen. Deep Learning, ein Unterbereich des Machine Learning, hilft bei der Erkennung dieser Daten und findet Muster in natürlicher Sprache, in Bildern und vielem mehr. lesen

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44696810 / FPGA)

Analog IC Suchtool