Suchen

Microsoft Build Conference Microsoft sieht Zukunft des Computing im massiven FPGA-Einsatz

| Redakteur: Sebastian Gerstl

Weil CPUs zu langsam sind, müssen FPGAs her: Auf der Microsoft-Entwicklerkonferenz Build 2017 hat Mark Russinovich, CTO von Microsoft Azure, einen Einblick in die Serverlandschaft des Unternehmens gegeben. Für den Clouddienst Azure stellen die programmierbaren Bausteine eine wichtige Ressource dar.

Firma zum Thema

Mark Russinovich, CTO von Microsoft Azure, auf der Build-Entwicklerkonferenz 2017. Nach Ansicht des Technikchefs stellt Hardwarebeschleunigung mittels FPGAs das Rückgrat und die Zukunfts wichtiger Trends des Cloudcomputings dar, wie etwa Big Data oder Maschinelles Lernen.
Mark Russinovich, CTO von Microsoft Azure, auf der Build-Entwicklerkonferenz 2017. Nach Ansicht des Technikchefs stellt Hardwarebeschleunigung mittels FPGAs das Rückgrat und die Zukunfts wichtiger Trends des Cloudcomputings dar, wie etwa Big Data oder Maschinelles Lernen.
(Bild: Microsoft)

Seit 2010 bietet Microsoft seinen Clouddienst Azure an, der sich in den letzten Jahren zunehmend zu einem zukunftsträchtigen Standbein für das Unternehmen entwickelt. Auf der hausinternen Entwicklerkonferenz Build 2017 in Seattle hat der zuständige Technikchef Mark Russinovich nun einige Einblicke in den Aufbau der Plattform gewährt – und sich offen dazu bekannt, dass in den Augen von Microsoft die Zukunft des Computing in FPGA-Bausteinen liegt.

Seit 2011 setzt Microsoft die programmierbaren Bausteine verstärkt ein; inzwischen seien sämtliche Azure- sowie die für die Suchmaschine Bing zuständigen Server mit FPGAs ausgestatttet. Nur so, äußerte Russinovich, sei sowohl eine hohe Geschwindigkeit des Clouddienstes als auch die notwendige Grundlage zur Hardwarebeschleunigung von Deep Neural Networks möglich. FPGA-gestützte Cloudserver bilden somit das Rückgrat für gegenwärtige wie auch für zukünftige Computing-Trends wie Internet of Things und Maschinelles Lernen bzw. Künstliche Intelligenz.

Auf der Ignite-Konferenz 2016 hatte Microsoft vergangenes Jahr erstmals bekannt gegeben, Cloudserver, die mit FPGAs als zusätzliche Hardware-Beschleunigern ausgestattet sind, auch für Endkunden zur Verfügung zu stellen.

Microsoft setzt hier bei CPUs wie FPGAs auf Intel-Bausteine: Während die programmierbare Logik sich um die Beschleunigung des 40-Gigabit-Ethernets (40GbE) kümmert, können sich die verwendeten Xeon-Prozessoren um die volle Rechenauslastung kümmern.

In seinem knapp einstündigen Vortrag auf der diesjährigen Build-Konferenz demonstrierte Russinovich nun konkret anhand mehrerer Benchmarks auf Azure-Systemen den FPGA-Offload. Ohne FPGAs konnte demnach auf dem 40GbE-Adapter nur Netzwerkgeschwindigkeiten von 4 GBit/s erreicht werden. Mit zugeschaltetem FPGA stieg dieser Wert auf 25 GBit/s. Dieser Wert, so Russonivoch, sei zwar sicher nicht ideal, aber er ist in jedem Fall stabil . Die netzwerkbedingte CPU-Last sinkt dabei in dem SDN nahezu auf null.

Ähnlich deutlich verbessert sich zudem die Latenz: Statt 145 Mikrosekunden sind es nur noch 31 Mikrosekunden Verzögerung durch den FPGA-Baustein – in der Theorie wenigstens. In der Praxis konnte Russinovich aber auch zufriedenstellende Verbesserungen erkennen, etwa bei deutlich schnelleren SQL-Abfragen.

Somit biete die Azure-Plattform eine in der Form noch nicht dagewesene "Leistung, Flexibilität und Skalierbarkeit, um mittels super-niedriger Netzwerk-Latenz dem weltweit größten Investment in FPGAs zum Durchbruch zu verhelfen", so Russinovich. Er gehe davon aus, dass Microsoft in Zukunft so weit sein könnte, um auch in anderen Feldern FPGA-Ressourcen über Azure anbieten zu können. Als konkrete Beispiele nannte er dabei etwa Deep Learning oder neurale Netze. Ziel sei es, Azure zu einer programmierbaren, konfigurierbaren Cloud zu machen.

(ID:44696810)