Cloud AI 100: Qualcomms neuer KI-Beschleuniger soll verteilte Intelligenz beflügeln

| Redakteur: Michael Eckstein

Schnell und sparsam: Qualcomm setzt bei seinem neuen Inferenz-Beschleuniger Cloud AI 100 auf eine hohe Energieeffizienz.
Schnell und sparsam: Qualcomm setzt bei seinem neuen Inferenz-Beschleuniger Cloud AI 100 auf eine hohe Energieeffizienz. (Bild: Qualcomm)

Hohe Energieeffizienz dank 7-nm-Prozesstechnik: Mit seinem neuen Inferenz-Beschleuniger Cloud AI 100 will Qualcomm in Rechenzentren vordringen und vom erwarteten Inference-Processing-Boom profitieren. 5G spielt dabei als Enabling-Technologie für verteilte Intelligenz eine wichtige Rolle.

KI basiert auf zwei Prozessen: Einerseits dem Entwickeln und Trainieren von neuronalen Netzen für maschinelles Lernen, andererseits dem Anwenden dieser trainierten Modelle in der spezifischen Applikation. Für Letzteres existiert der Begriff Inferenz. Diesem „Inference Processing“, also dem Schlussfolgern, welche Reaktion in einer bestimmten Situation am besten geeignet ist, sagen Marktbeobachter einen Boom voraus. Bis 2025 soll sich der Gesamtumsatz auf gut 17 Mrd. US-Dollar etwa verzehnfachen, meldet beispielsweise Tractica.

Halbleiteranbieter Qualcomm hat nun einen neuen Chip samt KI-Beschleunigerkarte entwickelt, die speziell für das Verarbeiten von KI-Inferenz-Aufgaben in Cloud-Rechenzentren ausgelegt sind. Besonders mit einem Argument will Qualcomm Unternehmen wie Facebook oder Amazon überzeugen: Energieeffizienz. Nach Angaben des Herstellers erreicht das „Cloud AI 100“ genannte Produkt „mehr als die zehnfache Leistung pro Watt im Vergleich zu den fortschrittlichsten KI-Inferenzlösungen der Branche, die heute eingesetzt werden“, sagt Keith Kressin, Senior Vice President, Product Management von Qualcomm Technologies. Das Argument könnte überzeugen, schließlich steigt mit der erwarteten KI-Rechenlast auch der Stromverbrauch – und damit die Betriebskosten.

Mehr Inferenz-Rechenleistung pro Watt

In modernen Rechenzentren kommen oft Kombinationen aus Hochleistungsprozessoren (Central Processing Unit, CPU), Grafikprozessoren (Graphic Processing Unit, GPU) und FPGA (Field Programmable Gate Array) oder ASIC (Applikationsspezifische ICs) zum Verarbeiten der Rechenlasten bei KI-Applikationen zum Einsatz. Typische Anbieter dafür sind Intel, AMD, Nvidia, Xilinx oder auch Google. Kressin ist überzeugt, dass Qualcomms neuer Cloud-AI-100-Chip bei gegebenem Energiebudget schneller rechnet und „die Messlatte bei der Verarbeitung von KI-Inferenzaufgaben ein gutes Stück höher legt“.

Im Briefing gab Qualcomm nur wenige technische Details preis: So würden die im Cloud-AI-100-Beschleuniger verwendeten Chips in moderner Prozesstechnologie mit nur 7 nm Strukturgröße gefertigt – genau wie die aktuellen Snapdragon 855-SoCs. Das lässt auf TSMC als Auftragsfertiger schließen. Laut Qualcomm handele sich jedoch beim neuen Produkt aber nicht um die bekannten Snapdragon 855- oder 8cx-SoCs. Der neue Chip sei rund 20-mal schneller als ein Snapdragon 855 beziehungsweise 50-mal schneller als ein Snapdragon 820. Das entspricht rund 350 TOPS (Tera Operations Per Second).

Komplette Cloud-to-Edge-KI-Lösungen dank 5G

Sein Unternehmen sei damit nun gut positioniert, um komplette Cloud-to-Edge-KI-Lösungen zu unterstützen, die „mit Hochgeschwindigkeits- und 5G-Konnektivität mit niedriger Latenz verbunden sind.“ Tatsächlich ist das die Voraussetzung, wenn Inferenzberechnungen in der Cloud anstatt direkt am Edge erfolgen sollen – zumindest bei zeitkritischen Anwendungen. Im Zusammenhang mit KI beschreibt Inferenz das Anwenden von bereits trainierten neuronalen Netzen. Typische Beispiele dafür sind fortschrittliche Spracherkennung, Bild- und Gesichtserkennung oder Empfehlungen auf Basis personalisierter Werbung.

Außerdem sollen sie verbreitete Frameworks und Software-Stacks unterstützen, darunter Caffe 2, MX-Net, PyTorch, Glow, TensorFlow, Keras und ONNX. Qualcomm kann bereits auf einen ersten offiziellen Partner verweisen: Microsoft wird Cloud AI 100 in den Rechenzentren seiner Azure-Plattform einsetzen. Ab der zweiten Jahreshälfte 2019 will Qualcomm die Cloud-AI-100-Lösung an seine Kunden ausliefern.

Die jetzige Ankündigung ist insofern interessant, als dass Qualcomm bislang mit eher mäßigem Erfolg versucht, sich mit seinen auf der 64-Bit-ARM-Architektur basierenden Centriq-Prozessoren in den Rechenzentren dieser Welt zu etablieren. Ob ein neuer Anlauf mit dem Cloud-AI-100-Beschleuniger besser klappt, bleibt abzuwarten: Die Konkurrenz im Cloud-KI-Geschäft ist sehr groß.

Konkurrenz für Intel und AMD: Amazon setzt eigenen Graviton-Prozessor für AWS ein

Konkurrenz für Intel und AMD: Amazon setzt eigenen Graviton-Prozessor für AWS ein

30.11.18 - Amazon lässt seine Cloud-Services zunehmend auf selbst entwickelten Server-Prozessoren laufen. Die auf einem ARM64-Design basierenden AWS Graviton-Chips sollen die Kosten skalierbarer Services um bis zu 45 Prozent senken. lesen

C-V2X: Erstmals grenzüberschreitende Fahrzeugkommunikation demonstriert

C-V2X: Erstmals grenzüberschreitende Fahrzeugkommunikation demonstriert

08.04.19 - In einer Drei-Länder-Testumgebung im europäischen Schengen hat das Convex-Konsortium erstmals die in der C-V2X-Spezifikation definierte Direktkommunikation unter realen Bedingungen demonstriert. Diese wird auch im künftigen 5G-Standard enthalten sein. lesen

So integrieren Sie KI in Windows-Apps

So integrieren Sie KI in Windows-Apps

01.04.19 - Mit Windows ML können Sie trainierte Machine-Learning-Modelle in Ihre Windows-Anwendungen integrieren, um sie leistungsfähiger, ansprechender und nützlicher zu machen. Es bietet Ihnen alles, was Sie benötigen, um Ihre ML-Modelle in der Cloud zu trainieren und unter Windows auszuführen – dort, wo diese am meisten Sinn machen. lesen

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45861110 / KI/Machine Learning)