GrAI One Chip: KI-Prozessor made in Paris adressiert zeitkritische ultralow-power Edge-Anwendungen

| Redakteur: Martina Hafner

Für den KI-Prozessor GrAI One Chip setzt GML auf die hauseigene NeuronFlow-Technologie. Diese nutzt In-Memory-Computing mit einer Architektur aus mehreren Cores und lokalen Speichern, die gemeinsam als Neuronen und Synapsen fungieren.
Für den KI-Prozessor GrAI One Chip setzt GML auf die hauseigene NeuronFlow-Technologie. Diese nutzt In-Memory-Computing mit einer Architektur aus mehreren Cores und lokalen Speichern, die gemeinsam als Neuronen und Synapsen fungieren. (Bild: Clipdealer)

Das Pariser Startup für neuromorphes Computing GrAI Matter Labs (GML) hat einen KI-Prozessor für intelligentes Edge-Computing vorgestellt, der sich durch eine Latenzzeit im Mikrosekunden-Bereich und sehr geringe Stromaufnahme auszeichnen soll. Das Sampling soll noch in diesem Quartal beginnen.

Der GrAI One Chip soll die Latenzzeit für Edge-Architekturen drastisch reduzieren: Hersteller GML benennt als End-to-End-Latenzzeit für Deep-Learning-Netzwerke wie Nvidias PilotNet eine Größenordnung von Mikrosekunden. In der autonomen Navigation liegt die Latenzzeit demnach etwa bei 20 µs, während bei der Keyword-Erkennung die Latenz 10 µs und bei Handbewegungen 1 µs betragen soll.

Mit dem Chip adressiert GML zeitkritische Edge-Anwendungen wie die autonome Navigation von z.B. Drohnen, Autos oder Robotern, Mensch-Maschine-Interaktion oder den Markt für intelligente Gesundheits- und Medizintechnik.

Der Chip basiert auf GMLs NeuronFlow-Technologie. Diese nutzt In-Memory-Computing mit einer Architektur aus mehreren Cores und lokalen Speichern, die als Neuronen und Synapsen fungieren. Hierdurch wird das typische Speicher-Bottleneck der traditionellen Von-Neumann-Architekturen eliminert. Das Design basiert auf Paketvermittlung und lose verbundenen ereignisbasierten neuronalen Netzwerken. Aufgrund seiner Skalierbarkeit lassen sich Lösungen für unterschiedliche Marktsegmente realisieren. Die Kombination von dynamischem Datenfluss mit neuromorphem Computing erlaube ein massives paralleles In-Network-Processing, so GML.

Der komplett digitalisierte GrAI One Chip misst 20 mm2 in TSMC 28-nm-Technologie und implementiert ein Netz von 196 Neuronenkernen mit lokalen Neuronen und Synapsen für insgesamt 200.000 Neuronen. Der Chip besitzt eine General-Purpose-IO-(GPIO)-Schnittstelle um latenzkritische KI-Workloads des Host-Prozessors zu entlasten. Bei einer hundertprozentigen Auslastung des Neuronenkerns verbraucht GrAI One laut Angaben 35 mW.

GML-CEO Ingolf Held fasst die Vorteile wie folgt zusammen: „GrAI One verarbeitet Inferenz-Anwendungen um Größenordnungen schneller als herkömmliche Architekturen.“ Gleichzeitig seien Leistungsaufnahme und Powermanagement für batteriebetriebene Geräte geeignet.

Für GrAI One Chip ist das Software-Entwicklungskit GrAIFlow verfügbar. Es soll gleichermaßen eine konventionelle Programmausführung als auch Machine Learning mit Sprachen wie TensorFlow, Python und C++ unterstützen. Das Toolkit enthält Compiler, Simulator, Debugger, einen grafischen Editor sowie Rechen- und Netzwerk-APIs. „Mit GrAIFlow bieten wir unseren Kunden die Möglichkeit, neue Anwendungsfälle mit extrem niedriger Latenz zu adressieren und so ihre Innovationen auf jedes Gerät zu bringen“, so Held.

GML: Neuromorphes Computing für Sensor-Analyse und Machine Learning

GrAI Matter Labs hat sich als Motto "AI To Every Device on the Edge" auf die Fahnen geschrieben. Das Startup beschäftigt sich mit neuromorphem Ultra-low-power-Computing für die Sensor-Analyse und Machine Learning. Kernzielmärkte sind autonome Systeme, Assistenzsysteme für Smart Home sowie tragbare Geräte im Gesundheitssektor. GML wurde 2016 als Brainiac von Ryad Benosman, Bernard Gilly, Giacomo Indiveri, Xavier Lagorce, Sio-Hoi Leng, Bernabe Linares-Barranco und Atul Sinha gegründet, Benosman und Gilly waren auch Mitbegründer von Prophesee. Die Technologie von GML basiert auf Forschungsarbeiten, die am Vision Institute in Paris in den letzten 20 Jahren über das menschliche Gehirn durchgeführt wurden. GML hat Niederlassungen in Paris, Eindhoven und im Silicon Valley

Lesetipp der Redaktion zum Thema:

„Der dedizierte KI-Prozessor ist tot!“: Erweiterbare KI-Architektur für das Smart Edge

„Der dedizierte KI-Prozessor ist tot!“: Erweiterbare KI-Architektur für das Smart Edge

22.10.19 - Seine neue KI-Prozessorarchitektur NeuPro-S hat Ceva für Inferenzaufgaben wie Imaging und Vision am Edge optimiert. Der Clou: Über die integrierte „CDNN-Invite“-Programmierschnittstelle können Entwickler ihre eigenen anwendungsspezifischen Neuronalen Netzwerke einbinden. lesen

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 46220214 / Mikrocontroller & Prozessoren)