Huawei Ascend 910: Leistungsfähiger KI-Prozessor mit passendem KI-Framework

| Autor: Ulrike Ostler

Eric Xu, der derzeitige Chef von Huawei (einer von drei, die sich gegenseitig ablösen) präsentiert in Shenzen den KI-Prozessor „Ascend 910“, mitsamt Roadmap.
Eric Xu, der derzeitige Chef von Huawei (einer von drei, die sich gegenseitig ablösen) präsentiert in Shenzen den KI-Prozessor „Ascend 910“, mitsamt Roadmap. (Bild: Huawei)

Am vergangenen Freitag hat Huawei mit „Ascend 910“ den nach eigenen Worten leistungsfähigsten KI-Prozessor vorgestellt. Es ist bestimmt für das Training von Anwendungen Künstlicher Intelligenz. Hinzu kommt mit „Mindspore“ ein Framework, das es insbesondere Wissenschaftler erleichtern soll, KI-Anwendungen zu entwickeln – für alle KI-Hardware. Die Software soll 2020 Open Source werden.

Derzeit steht Eric Xu dem chinesischen Konzern vor. Er ließ es sich nicht nehmen, sowohl den Prozessor als auch das KI-Framework, das in Konkurrenz zu „Tensorflow“, „Theano“, „Keras“, „Torch“, „CNTK“, „Infer.NET“ und „Caffe“ steht, selbst der Weltöffentlichkeit vorzustellen, offenbar aus gutem Grund: „Der Ascend 910 schneidet viel stärker ab als erwartet", so Xu. „Zweifelsfrei hat er mehr Rechenleistung als jeder andere KI-Prozessor auf der Welt“ – und zudem mit bei einem viel geringeren Stromverbrauch als ursprünglich geplant.

Ascend 910

Für Gleitkommaoperationen mit halber Genauigkeit (FP16) erreicht Ascend 910 256 TeraFLOPS. Für vollständige Präzisionsberechnungen (INT8) erreicht er 512 TeraOPS. Trotz Dabei benötigt der KI-Chip maximal 310 Watt; avisiert waren 350 Watt.

Ascend 910 wird hauptsächlich für das KI-Modelltraining verwendet. In einer typischen Trainingseinheit auf Basis von „Resnet-50“ führt die Kombination des Chips und Mindspore zu einer Verdoppelung der Trainingsgeschwindigkeit im Vergleich zu üblichen Beschleunigerkarten unter Nutzung von Tensorflow, so Xu. Das liegt unter anderem daran, dass Mindspore weniger Kerncodezeilen als die führenden Frameworks auf dem Markt benötigt - in einem typischen neuronalen Netzwerk für die Verarbeitung natürlicher Sprache (NLP) sind es rund 20 Prozent.

Der Huawei-Chef hob hervor, dass der Konzern weiterhin heftig in KI-Prozessoren investieren werde, die den Anforderungen einer Vielzahl von Anwendungsbereichen, vom Edge-Computing, fahrzeuginternes Computing für autonomes Fahren und Training gerecht werden können. Auf die immer wiederkehrende Frage nach der Verbindung beziehungsweise dem Zusammenhang mit 5G sagte er schließlich: „AI ist AI und KI ist KI“.

Außerdem betonte er, dass Huawei nicht plane, eine eigene Chip-Vermarktung aufzubauen. Die Huawei-Prozessoren gibt es als System on a Chip (SoC) nur in Zusammenhang mit der zugehörigen „Atlas“-Hardware (siehe: Abbildung 1 und 2) oder, insbesondere für Startups, aus der Huawei-Cloud, aus Rechenzentren in Singapur und Hongkong. Während das „Atlas 200“ und „Atlas 300“ kleine Boxen zum Start von Entwicklungstätigkeiten und Programmausführungen sind, zählt das „Mobile Datacenter 300“ quasi als Gateway.

Aufgrund der Handelsstreitigkeiten mit den USA, setzt Huawei derzeit alleine auf ARM-CPUs, die mit den Ascend-Chips kombiniert werden. Die Ascend-Prozessoren werden übrigens im so genannten EOB-Prozess, also einem 7-Nanometer-Prozess, in Taiwan vom Auftragsfertiger TSMC gebaut. Der Preis des Ascend 910 soll nicht höher liegen als vergleichbare Systeme, so Xu.

Der KI-Trainings-Chip folgt der Strategie-Veröffentlichung im vergangenen Jahr. Diese beinhaltet die Investitionen in die KI-Forschung, also in die Entwicklung grundlegender maschineller Lernfähigkeit in den Bereichen Computervision, Sprachverarbeitung, Entscheidungen und Schlussfolgerungen zum Beispiel. Der Schwerpunkt liegt dabei auf:

  • Daten und Leistungseffizienz, was bedeutet: weniger Daten-, Computing- und Energieverbrauch
  • Sicherheit und Vertrauenswürdigkeit
  • Automatisierung beziehungsweise Autonomie
  • Das Erstellen eines umfassenden KI-Portfolios, das sich an alle Szenarien anpasst, einschließlich isolierter und kooperativer Szenarien im Zusammenspiel von Cloud, Edge und Endgerät. Schwerpunkt auf:
  • erschwingliche Rechenleistung
  • effiziente und benutzerfreundliche KI-Plattform mit umfassenden Pipeline-Diensten
  • Die Förderung von Talenten und eines offenen Ökosystems: Enge Zusammenarbeit mit der internationalen Wissenschaft, Industrie und Partnern, was laut Xu durchaus schwer ist, man aber dies nichtsdestotrotz probieren müsse
  • Die Stärkung des bisherigen Portfolios: Einsatz von KI-Denkansätzen und Verfahrensweisen in bestehenden Produkten und Angeboten, um mehr Wert und Wettbewerbsfähigkeit zu schaffen
  • Der Ausbau operationeller Effizienz: Verwendung von KI, um repetitive Aufgaben mit hohem Umfang zu automatisieren und damit effizienter und höherwertiger auszuführen

KI macht es möglich

Huawei begreift KI als eine neue Allzwecktechnologie, wie Eisenbahnen und Elektrizität im 19. Jahrhundert und Autos, Computer und das Internet im 20. Jahrhundert. Das Unternehmen geht davon aus, dass KI in nahezu allen Wirtschaftsbereichen zum Einsatz kommen wird.

Xu sieht KI noch in einem frühen Entwicklungsstadium, so dass noch eine Reihe von Lücken zu schließen sind bis KI zu einer echten Allzwecktechnologie werden kann. KI müsse schlichtweg umfassend anwendbar sein, um sicher und beständig zu wirken.

Was das behindert, sei unter anderem darauf zurückzuführen, dass der Umgang mit KI bisher ausschließlich den Experten vorbehalten sei, genauer IT-Experten. Mindspore soll wesentlich dazu beitragen, das zu ändern (siehe: Abbildung 3 und 4).

Im ersten Quartal 2020 soll das Framework Open Source werden, noch ist allerdings unbekannt unter welcher Lizenz es zugänglich, verwendet und weiterentwickelt werden kann. Zugleich erscheint dieser Schritt unabdingbar, wenn sich ein großes Ökosystem bilden soll.

Das KI-Framework

Mindspore soll Ingenieure oder auch Wissenschaftler davon entbinden, sich in die Komplexität der Programmierung und Datenbankdetails einarbeiten zu müssen. Das Designkonzept „KI-Algorithmus als Code" ermöglicht Entwicklern, fortschrittliche KI-Anwendungen einfacher zu entwickeln und eigene Modelle schneller zu trainieren. Dafür unterstützt die Umgebung nicht nur Ascend-Prozessoren, sondern auch Hardwarekomponenten andere Hersteller: GPUs, CPUs und weitere Prozessortypen.

Das KI-Framework ist zudem in allen Bereichen einsetzbar. Das gilt für alle Endgeräte, Edge- und Cloud-Umgebungen. So können Umgebungen mit definierten Ressourcen beliebig groß und kompliziert oder klein und einfach konzipiert werden. Bei Bedarf koordiniert es ihr Zusammenspiel.

Im Vergleich konkurrierenden KI-Frameworks sei Mindspore auch effizienter: In einem typischen neuronalen Netzwerk für die Verarbeitung natürlicher Sprache (NLP) benötigt Mindspore über 20 Prozent weniger Kerncodezeilen, die Entwickler können bis zu 50 Prozent effektiver arbeiten.

Eine Schlüsselkomponente in Mindspore sei zudem der „Schutz der Privatsphäre“, wie Xu ausführt. Zum Schutz der Nutzerdaten trage bei, dass das Framework nur mit Verlaufs- und Model-Daten arbeite, die bereits zuvor verarbeitet wurden. Dagegen verarbeitet Mindspore selbst keine Daten, sodass private Nutzerdaten auch in Szenario-übergreifenden Umgebungen geschützt werden können. Eine integrierte Technologie zum Schutz der Models könne sicherstellen, dass die Models sicher und vertrauenswürdig bleiben.

Modelarts

Die korrespondieren Tools für Entwickler, die neue KI-Modelle erstellen, finden sich in „Modelarts“. Dabei geht es von der Datenerfassung und Modellentstehung bis hin zu Modellschulungen und -verwendungen.

Laut Huawei verwenden gegenwärtig mehr als 30.000 Entwickler Modelarts für täglich mehr als 4.000 Trainingsaufgaben, insgesamt 32.000 Trainingsstunden. Von diesen Aufgaben entfallen 85 Prozent auf die visuelle Verarbeitung, 10 Prozent auf die Verarbeitung von Audiodaten und 5 Prozent auf das Machine Learning.

Mit der der Einführung von Ascend 910 und Mindspore hat Huawei weitere wichtige Bausteine seines „Full-Stack-Portfolios“ hinzugefügt – auch wenn Xun sagt „Alles läuft nach Plan“, den Chip mit ein wenig Verspätung. „Wir haben ein umfassendes KI-Portfolio für alle Szenarien versprochen und […] geliefert. Diese Produktvorstellung ist ein neuer Meilenstein in der KI-Roadmap von Huawei. Es ist auch ein neuer Anfang.“

Abbildung 7: Mit seinem „Full-Stack-KI-Portfolio“ will Huawei die anstehenden Aufgaben zu erfüllen, die zwischen dem Istzustand und der KI-Zukunft stehen.
Abbildung 7: Mit seinem „Full-Stack-KI-Portfolio“ will Huawei die anstehenden Aufgaben zu erfüllen, die zwischen dem Istzustand und der KI-Zukunft stehen. (Bild: Huawei)

Und folgende zehn Bereiche stehen noch im Aufgabenbuch, die die Veränderungen in der KI anzeigen:

  • 1. Höhere Rechenleistung, um die Geschwindigkeit des Trainings komplexer Modelle von Tagen und Monaten auf Minuten - sogar Sekunden - zu bringen.
  • 2. Erschwingliche Rechenleistung. Zurzeit sei der Einsatz von Rechenleistung sowohl kostspielig als auch begrenzt, was die Entwicklung von KI einschränkt.
  • 3. Schaffung eines umfassenden KI-Portfolios, das unterschiedliche Anforderungen von Unternehmen erfüllt und gleichzeitig den Schutz der Privatsphäre der Benutzer gewährleistet. Er räumt in diesem Zusammenhang ein, dass KI und Ethik eine bedeutsame Rolle spielen müsse.
    Allerdings werde etwa Datenschutz in verschiedenen Ländern und Kulturen unterschiedlich verstanden. So sei der Einsatz von Kameras im öffentlichen Raum Großbritannien und China akzeptiert, aber definitiv nicht in Deutschland.
  • 4. Investitionen in grundlegende KI-Algorithmen. Algorithmen der Zukunft sollten dateneffizient sein, also mit weniger Dateneinsatz dieselben Ergebnisse liefern. Sie sollten außerdem energieeffizient sein, also dieselben Ergebnisse mit Einsatz von weniger Rechenleistung und Energie erzielen.
  • 5. Verwendung von Mindspore und „Modelarts“, um KI zunehmend automatisiert zu entwickeln und die Abhängigkeit von menschlicher Arbeitsleistung zu verringern.
  • 6. Weitere Verbesserung der Modellalgorithmen, um für die industrielle Nutzung anwendungsbereite KI zu schaffen, die unter Realbedingungen ihre Leistung bringt, nicht nur in Testsituationen.
  • 7. Entwicklung eines Kreislaufsystems in Echtzeit, um Model-Updates durchzuführen und sicherzustellen, dass KI-Anwendungen in Unternehmen weiterhin mit Optimalleistung laufen.
  • 8. Maximierung des Werts von KI durch die Förderung von Synergien mit anderen Technologien wie Cloud, IoT, Edge Computing, Blockchain, Big Data und Datenbanksystemen.
  • 9. Nutzung der Entwicklungsplattform des umfassenden KI-Portfolios, um den Einsatz von KI zu einer Grundkompetenz für alle Entwickler von Anwendungen und Beschäftigte im IKT-Bereich zu machen. Zurzeit können nur hochqualifizierte Fachkräfte mit KI arbeiten.
  • 10. Mehr Investitionen in ein offenes KI-Ökosystem und Aufbau der nächsten Generation von KI-Talenten, um der wachsenden Nachfrage nach Fachkräften mit KI-spezifischen Fähigkeiten gerecht zu werden.
KI braucht neue Prozessoren

KI braucht neue Prozessoren

10.12.18 - Anlässlich der Fachmesse Electronica gab Gartner einen Ausblick auf die durch Künstliche Intelligenz (KI) und Deep Learning ausgelösten Entwicklungen auf dem Hardwaremarkt. Fazit: Eine neue Gründungswelle kommt ins Rollen, denn der Standard-Prozessorchip hat auf diesem Gebiet ausgedient. lesen

5,8 TOPS am Edge: Kneron stellt neue Generation von KI-Prozessoren vor

5,8 TOPS am Edge: Kneron stellt neue Generation von KI-Prozessoren vor

28.09.18 - KI-Chip-Entwickler Kneron verspricht bis zu 5,8 Billionen Rechenoperationen pro Sekunde bei nur 0,5 W Leistungsaufnahme. Dazu waren einige Verbesserungen am ursprünglichen NPU-Design nötig. lesen

Welche Hardware eignet sich besser zur KI-Beschleunigung?

Welche Hardware eignet sich besser zur KI-Beschleunigung?

04.06.18 - Moderne Hardwarebeschleuniger haben den praktikablen Einsatz von Künstlicher Intelligenz in IT und Industrie in greifbare Nähe gerückt. Doch welche Technologie eignet sich hierfür besser: GPUs, DSPs, programmierbare FPGAs oder eigene, dedizierte Prozessoren? ELEKTRONIKPRAXIS hat Hardwarehersteller und Embedded-Experten zu diesem Thema befragt. lesen

Dieser Beitrag stammt von unserem Partnerportal Datacenter-Insider.de.

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 46106540 / Mikrocontroller & Prozessoren)