Suchen

Neuer Maxim-Controller: Inferenz auf batteriebetriebenen IoT-Geräten

| Redakteur: Michael Eckstein

Mit einem neuen Beschleuniger-Chip für Neuronale Netzwerke steigt Maxim in den Ring für Edge-KI-Controller. Dem Inferenzbeschleuniger stehen Ultra-Low-Power-Kerne mit ARM- und RISC-V-Architektur zur Seite.

Firmen zum Thema

Edge aufschlauen: Der MAX78000-Controller soll auch batteriebetriebene Geräte in die Lage versetzen, eigene Schlussfolgerungen anhand erfasster Daten durchzuführen.
Edge aufschlauen: Der MAX78000-Controller soll auch batteriebetriebene Geräte in die Lage versetzen, eigene Schlussfolgerungen anhand erfasster Daten durchzuführen.
(Bild: Maxim Integrated)

Maxim Integrated steigt in den Intelligent-Edge-Markt ein: Nach eigenen Angaben ist der neue Low-Power-Mikrocontroller (MCU) MAX78000 explizit für Inferenzberechnung auf batteriebetriebenen Internet-of-Things-(IoT-)Geräten ausgelegt. Die Hardware sei darauf optimiert, Leistungsaufnahme und Latenzzeit von Berechnungen so genannter Convolutional Neural Networks (CNN) zu minimieren. Sogar batteriebetriebene Geräte sollen damit in die Lage versetzt werden, KI-Funktionen zu nutzen.

Laut Maxim berechnet der Chip „KI-Inferenzen mit weniger als einem Hundertstel der Energie, die konventionelle Softwarelösungen benötigen“. Zudem sei er dabei auch „100-mal schneller als Softwarelösungen, die auf herkömmlichen Low-Power-Mikrocontrollern laufen, und das zu einem Bruchteil der Kosten von FPGA- oder GPU-Lösungen“. Die Angaben beruhen auf einem Vergleich mit dem hauseigenen Modell MAX32630.

Dieser Mikrocontroller kommt zum Beispiel in Fitnessuhren zum Einsatz – also in Applikationen, auf die auch der neue MAX78000 zielt. Der MAX32630 verwendet einen Cortex-M4F-Kern von ARM und taktet mit 96 MHz. Das eingesetzte Neuronale Netz wurde mit PyTorch trainiert und dann mit Hilfe der ARM-eigenen CMSIS-Bibliotheken für neuronale Netzwerke auf dem Cortex M4F implementiert. Auf dem MAX78000 hat Maxim nach eigenen Angaben das identische CNN mit exakt denselben Parametern für die SIMD-optimierten CMSIS-NN-Bibliotheken laufen lassen, so dass die Ergebnisse tatsächlich vergleichbar sind.

Edge-KI ist auf dem Vormarsch

Maxim reagiert mit seinem Controller auf einen klaren Trend: KI-Berechnungen werden verstärkt von der Cloud ans Edge ausgelagert. Im bisherigen Cloud-Edge-Ansatz wurden von Sensoren, Kameras und Mikrofonen und anderen Sensoren erzeugte Daten an ein Cloud-Rechenzentrum gesendet. Auf dieser Basis wurde die Inferenz (Schlussfolgerung) berechnet und zurück zum Edge gesendet – Verzögerung inklusive.

In begrenztem Umfang ist es auch auf herkömmlichen Mikrocontrollern mit niedriger Leistungsaufnahme möglich, neuronale Netzwerke zu berechnen – Stichwort TinyML. Allerdings brauchen sie viel Zeit dafür. Nicht jede Applikationen kann darauf warten.

Produkte wie der MAX78000 machen in vielen Fällen eine Verschiebung von Inferenzfunktionen zum Edge erst möglich, da sie ausreichend Rechenleistung für dedizierte KI-Aufgaben bereitstellen und dabei sehr energieeffizient arbeiten – eine Grundvoraussetzung für Geräte, die möglichst wenig Strom verbrauchen sollen. Weitere Argumente, die für Edge-KI ins Feld geführt werden, sind niedrige Latenzen, Informationssicherheit, funktionale Sicherheit sowie Kostenvermeidung durch geringere übertragene Datenmengen.

Mittlerweile breites Portfolio an Edge-KI-Controller erhältlich

In der jüngsten Vergangenheit hat die Zahl von Inferenz-optimierten Prozessoren und Controllern deutlich zugenommen. So integrieren auch andere MCU-Hersteller wie NXP, STMicroelectronics und Renesas mittlerweile spezialisierte KI/NPU-Kerne in einige ihrer Bausteinfamilien. Viele davon basieren auf Cortex-Kernen von IP-Lieferant ARM, der auch passende Softwarebibliotheken für das Integrieren von Neuronalen Netzen liefert – etwa die Open-Source-Library CMSIS-NN.

Daneben gibt es auch speziell für Edge-KI entwickelte Prozessoren wie den 1-US-$-Chip Xcore.ai von XMOS, KL720 von Kneron, Aikida von Brainchip, GrAI One Chip von GrAI Matter Labs (GML), Ergo von Perceive oder auch NeuPro-S von Ceva – die Liste lässt sich noch weit fortführen.

Zwei ULP-Kerne flankieren die CNN-Engine

Zurück zum MAX78000: Maxim hat einen dedizierten Netzwerkbeschleuniger (CNN-Engine) mit zwei verschiedenen Mikrocontroller-Kernen in den Chip integriert – einen Ultra-Low Power Cortex-M4-Kern von ARM und einen RISC-V-Kern mit nach eigenen Angaben noch geringerer Leistungsaufnahme. Beide sollen weitgehend unabhängig von der NPU (Neural Processing Unit) arbeiten. Energie und Zeit würden nur für die mathematischen Operationen aufgewendet, die ein CNN implementieren, sowie für das Übertragen von Daten in die CNN-Engine.

Zum Entwickeln und Ausprobieren eigener Applikationen hat Maxim das Board MAX78000EVKIT# samt passender Tools entwickelt – darunter laut Hersteller sofort einsatzbereite Demos für Keyword Spotting und Gesichtserkennung. Das knapp 170 US-$ teure Board verfügt über Audio- und Kameraeingänge. Eine vollständige Dokumentation soll Entwicklern dabei helfen, Neuronale Netzwerke für den MAX78000 mit den für sie gewohnten Tools wie TensorFlow oder PyTorch zu trainieren.

Event-Tipp: Edge AI, Embedded KI und Industrial Edge conference

Edge AI bezeichnet eine Technologie, bei der die Datenintelligenz von der Cloud zurück an die Edge gebracht wird, also in das Embedded System oder Gateway. Fortgeschrittene KI und Analytics zählen zu den 5 Megatrends bis 2029. Die virtuelle i-edge conference vom 17. bis 18. November im Internet ist Deutschlands einzigartige Entwicklerkonferenz und Networking-Plattform, die sich fachlich tiefgreifend und herstellerunabhängig mit den Themen Edge AI, Embedded KI und Industrial Edge befasst. Sichern Sie sich jetzt den Wissensvorsprung für eine neue Ära und melden Sie sich zur ersten i-edge conference an.

Zum Programm der i-edge

(ID:46917290)