Suchen

NXP setzt auf KI für alle: „Eine Riesenwelle rollt heran“

Redakteur: Michael Eckstein

Der Markt für Edge KI verspricht beeindruckende Wachstumsraten. NXP will davon profitieren: Eine grafische KI-Programmierumgebung und neue skalierbare i.MX-Applikationscontroller mit spezialisierten, gemeinsam mit ARM entwickelten NPUs sollen Entwickler ins eigene Lager ziehen.

Firmen zum Thema

Bald vollkommen normal: Irgendeine Art von Künstlicher Intelligenz wird bald fast allen Elektronikprodukten stecken – das verspricht enormes Marktpotenzial.
Bald vollkommen normal: Irgendeine Art von Künstlicher Intelligenz wird bald fast allen Elektronikprodukten stecken – das verspricht enormes Marktpotenzial.
(Bild: NXP)

NXP richtet sein Portfolio verstärkt auf Maschinelles Lernen/Künstliche Intelligenz (ML/KI) aus. Durch eine Investition in das kanadische Au-Zone Technologies bindet NXP diesen nach eigenen Angaben strategischen Partner enger an sich. Ziel ist es, die eigene Softwareentwicklungsumgebung „eIQ Machine Learning“ mit anwenderfreundlichen ML-Tools zu erweitern und so die Handhabung deutlich zu vereinfachen. „Entwickler sollen in Zukunft ihre KI-Applikationen mithilfe einer grafischen Benutzeroberfläche programmieren können“, erklärt Markus Levy, Director of AI and Machine Learning im Gespräch mit ELEKTRONIKPRAXIS.

Darüber hinaus intensiviert NXP die Zusammenarbeit mit ARM: Laut Ben Eckermann, Chief Engineer of AI/ML Hardware von NXP, arbeitet sein Unternehmen federführend an der Entwicklung der „Ethos-U microNPU“-Architektur (Neural Processing Unit) mit, die Applikationsprozessoren besser unterstützen soll. Die Ergebnisse fließen in die Entwicklung der Ethos-U65-microNPU ein.

Produkte für das Intelligent Edge schneller entwickeln

„Wir werden die Ethos-U-microNPU-Architektur in die nächste Generation unserer i.MX-Applikationsprozessoren integrieren“, sagt Levy. Diese Bausteine seien bereits heute in ein umfangreiches Ökosystem eingebettet. Anwender könnten damit innerhalb kurzer Zeit innovative Projekte realisieren. Zusätzliche skalierbare KI/ML-Funktionen würden sie in die Lage versetzen, auch Produkte für das Intelligent Edge schneller zu entwickeln. Ziel sei es, energieeffiziente und kostengünstige ML-Lösungen für den schnell wachsenden Markt für IoT-Anwendungen im Industrie- und Edge-Bereich bereitzustellen.

Als Halbleiterhersteller mit Schwerpunkt Mikrocontroller fokussiert NXP seine KI/ML-Entwicklungen auf den Edge-Computing-Markt. Das Unternehmen unterteilt diesen in das „Network Edge“, in dem millionenfach beispielsweise Gateway-Server, Basisstationen und Access Points zum Einsatz kommen, und das „Application Edge“, in dem Mrd. von (Industrial-)IoT-Endgeräten in unterschiedlichsten Bereichen Daten aggregieren und vorverarbeiten – Tendenz stark steigend.

„Eine riesige KI/ML-Welle rollt heran!“

Eckermann verweist auf eine Studie von ABI Research: Demnach werden im Jahr 2024 rund 2 Mrd. inferenzfähige Edge-Geräte ausgeliefert, rund drei Viertel davon werden Mobilegeräte sein und 25% IoT-Endgeräte etwa für Smart Home und verstärkt für den industriellen Einsatz. Verstärkt finden KI-Inferenzen – also Schlussfolgerungen auf Basis bereits angelernter Neuronaler Netzwerke (NN) – am Edge statt, der Anteil wird bis 2024 auf rund 60% wachsen, 40% entfallen dann auf Cloudrechner. Zum Vergleich: Aktuell ist das Verhältnis 30:70 zugunsten von Cloudcomputing.

Ohne Frage entwickelt sich KI zur Standardausstattung moderner Geräte – davon ist auch Eckermann überzeugt: „Eine riesige KI/ML-Welle rollt heran!“ Aktuell befinde sich die Adaptionsphase am Übergang zwischen „Early Adopters“ und „Early Majority“, das Wachstum sei bereits sehr progressiv. Der Scheitelpunkt werde Anfang 2023 überschritten – hier bezieht er sich auf die „Embedded Markets Study 2019“ von Aspencore. „55% der befragten Entwickler sagen heute, dass ihre aktuellen oder geplanten Projekte ML erfordern“, zitiert Eckermann.

Maschinelles Lernen für Alle

Ein wichtiger Schritt auf dem von NXP eingeschlagenen Weg ist die Integration der „DeepViewML Tool Suite“ von Au-Zone in die Softwareentwicklungsumgebung „eIQ“ von NXP: „eIQ wird dadurch um eine intuitive grafische Benutzeroberfläche und einen Workflow erweitert“, sagt Eckermann. Entwickler aller Erfahrungsstufen, vom Anfänger bis zum Profi, könnten darüber Datensätze und Modelle importieren sowie „NN-Modelle und ML-Workloads über das gesamte NXP-Edge-Processing-Portfolio hinweg in kürzester Zeit trainieren und bereitstellen“.

Auch sehr komplexe Anforderungen heutiger Industrie- und IoT-Anwendungen sollen sich erfüllen lassen: „Dafür bietet die DeepViewML Tool Suite Entwicklern erweiterte Funktionen zum Bereinigen, Quantisieren, Validieren und Bereitstellen öffentlicher oder proprietärer NN-Modelle auf NXP Geräten“ erklärt Levy. Darüber hinaus ermögliche DeepView mit der zielgerichteten Profilerstellung auf Diagrammebene Anwendern tiefe Einblicke in den Programmablauf zur Laufzeit. Mit den gewonnenen Erkenntnissen sollen sich NN-Modellarchitekturen, Systemparameter und die Laufzeitleistung weiter optimieren lassen.

„DeepView optimiert Systemspeichernutzung und die Datenbewegungen

NXPs eIQ setzt bislang auf Open-Source-Inferenztechnologien. „Durch das Integrieren der DeepView Laufzeit-Inferenz-Engine in eIQ können Benutzer ML-Workloads und -Performance für viele NXP-Bausteine schnell und mit minimalem Aufwand bereitstellen und bewerten“, sagt Eckermann. Ein wesentliches Merkmal der DeepView-Laufzeit-Inferenz-Engine sei, dass sie die Systemspeichernutzung und die Datenbewegungen für die jeweilige SoC-Architektur optimiere.

Nach Angaben von Brad Scott, CEO von Au-Zone, baut die jetzige Integration auf der „bereits seit Jahrzehnten bestehenden Partnerschaft mit NXP“ auf. Er erwartet, dass die jetzige Integration ein „Katalysator zum Bereitstellen modernster Technologien für ML und schlüsselfertiger Lösungen sein wird“ – und die Verbreitung von Edge-KI beschleunige. Er beobachte bereits, dass Kunden für Edge-Anwendungen zunehmend Inferenz-Engines einsetzen.

Maschinelles Lernen auf dem Vormarsch

In dieselbe Kerbe schlägt NXP mit seiner Ankündigung, seine i.MX-Applikationsprozessoren aus dem EdgeVerse-Portfolio mit dem Ethos-U65-ML-Beschleunigers aufzuwerten. Im Januar hatte NXP auf der CES den i.MX-8M-Plus-Anwendungsprozessor mit integrierter NPU vorgestellt, der nun ebenfalls um die microNPU erweitert wird. Mit dem erweiterten Portfolio soll ML einem breiteren Spektrum an Applikationen zugänglich werden – und die Grenzen für typische Anwendungsgebiete wie Gesicht- und Objekterkennung, Spracherkennung und -analyse, Videoverarbeitung und Datensequenzanalyse (Anomalie- und Bewegungserkennung) deutlich nach oben verschieben.

Die Technologiepartnerschaft zwischen NXP und ARM konzentriert sich auf die Definition der System-Level-Aspekte der microNPU. Eckermann ergänzt: „Die neue Lösung erreicht eine Rechengeschwindigkeit von bis zu 1 TOPS beziehungsweise 512 parallele multiply-accumulate-Operationen bei 1 GHz Taktfrequenz.“ Die microNPU Ethos-U65 arbeitet mit dem Cortex-M-Kern zusammen, der bereits in den i.MX-Familien heterogener SoCs vorhanden ist. Dies verbessert laut NXP die Energieeffizienz. So soll eine MCU mit Ethos-U65 eine vergleichbare Effizienz wie eine MCU mit Ethos-U55 erreichen.

Baldige Verfügbarkeit der neuen Produkte

ARM Ethos-U65 wird in künftigen Applikationsprozessoren von NXP erhältlich sein. Die DeepViewML Tool Suite und die DeepView Laufzeit-Inferenz-Engine von Au-Zone – beide in eIQ integriert – will NXP ab dem ersten Quartal 2021 kostenlos bereitstellen. Der Zugang zu den systemübergreifenden Softwaretools soll direkt über NXPs eIQ-IDE möglich sein. „Die Tools decken von der Schulung bis hin zur Validierung und Bereitstellung vorhandener oder neuer neuronaler Netzwerkmodelle für den i.MX 8M Plus, für andere NXP-SoCs und zukünftige Bausteine mit integrierter Ethos-U55 bzw. U65 alles ab“, sagt Levy.

(ID:46959587)