5,8 TOPS am Edge: Kneron stellt neue Generation von KI-Prozessoren vor

| Autor: Michael Eckstein

Bedarfsgerechte Verteilung: Die flexiblere Architektur der Kneron-NPUs soll für eine bis zu dreimal höhere Performance sorgen.
Bedarfsgerechte Verteilung: Die flexiblere Architektur der Kneron-NPUs soll für eine bis zu dreimal höhere Performance sorgen. (Bild: Kneron)

KI-Chip-Entwickler Kneron verspricht bis zu 5,8 Billionen Rechenoperationen pro Sekunde bei nur 0,5 W Leistungsaufnahme. Dazu waren einige Verbesserungen am ursprünglichen NPU-Design nötig.

Erst im März 2018 hatte das im kalifornischen San Diego ansässige Prozessor-Start-up Kneron eine interessante Serie an Neural Processing-Units (NPU) vorgestellt. Bereits jetzt schickt das vom Kommunikationschip-Primus Qualcomm und dem chinesischen Online-Riesen Alibaba geförderte Unternehmen die Nachfolgegeneration ins Rennen.

Auf der Arm AI Global Developers Conference in Shanghai, China, kündigte Kneron im Beitrag „The Application of Reconfigurable Computing in AI Chips“ die speziell auf KI-Anwendungen im Netzwerkzugangsbereich (Edge) ausgelegte Prozessorreihe KDP x20 an. Diese zweite Generation seiner NPU-IP-Chips (Neural Processing Units) umfasst drei Produktlinien: den Ultra-Low-Power KDP 320, den Standard KDP 520 und eine Hochleistungsvariante, den KDP 720. Ebenfalls für den Anwendungsbereich Edge hatte kürzlich auch Start-up Brainchip seinen neuromorphen System-on-a-chip-(SoC)-Baustein Akida vorgestellt.

Mehr Flexibilität führt zu mehr Leistung

Laut Hersteller sei die Architektur jetzt noch mehr auf hohe Flexibilität bei Berechnungen ausgelegt. Daraus resultiere eine um bis zu dreifach höhere Performance gegenüber den Vorgängern. Bei 8-Bit-Festkommaberechnungen würden maximal 5,8 TOPS erreicht (Tera Operations Per Second) – also 5,8 Billionen Rechenschritte pro Sekunde. Dieser Wert gilt für den im 28-nm-Prozess hergestellten KDP 720 bei 600 MHz Taktfrequenz. Eine wichtige Angabe, denn die maximal mögliche Taktfrequenz und damit die maximal erreichbare Rechenleistung hängt unter anderem von den Strukturgrößen auf dem Chip ab.

Kneron verweist auf die nach eigenen Angaben sehr geringe Leistungsaufnahme von lediglich 0,3 bis 0,5 W. Für eine vergleichbare Performance würden andere KI-Prozessoren mehrere Watt benötigen. Die geschätzte Energieeffizienz liegt bei rund 13 TOPS/W. Der beispielsweise für die Gesichtserkennung auf Smartphones gedachte Ultra-Low-Power-KDP-Chip kommt nach Angaben des Entwicklers mit lediglich 5 mW aus.

Unterstützung für mehr Convolutional Neural Networks (CNN)

Aufgrund des geringen Stromverbrauchs seien die Kneron-Chips gut im Markt aufgenommen worden, sagt Albert Liu, Gründer und CEO von Kneron. „In der neuen Generation haben wir die Flexibilität der Prozessorarchitektur verbessert – Datenverteilung, Berechnungen und Speichernutzung sind jetzt effizienter.“

Außerdem könne man jetzt unterschiedliche neuronale Netze besser unterstützen. „Dadurch kann unsere neue NPU IP in ganz verschiedenen KI-Anwendungen eingesetzt werden“, erklärt Liu. So könnten etwa neuronale Netze auf Edge-Geräten wie Smartphones, Haushaltsgeräten, Überwachungsprodukten und einer breiten Palette von IoT-Geräten implementiert werden.

Neue Architektur ermöglicht parallele Faltungsberechnungen

Die neue Interleaving-Architektur (interleave = verschachteln) ermöglicht laut Liu parallele Faltungsberechnungen und Pooling, also das zweckgebundene Zusammenfassen von Ressourcen. Die Faltung würde gleichzeitige Berechnungen im 8- und 16-Bit-Festkommaformat ermöglichen. Neben der Performance soll davon auch die Flexibilität profitieren.

Die implementierte Deep-Compression-Technologie komprimiert nach Angaben des Kneron-CEOs nicht nur die NN-Modelle, sondern auch Daten und Koeffizienten. Dies würde den Speicherverbrauch während der Berechnungen deutlich reduzieren. „Durch Deep Compression erreichen wir eine bis zu 50-fache Verdichtung bei weniger als 1 Prozent Einfluss auf die Genauigkeit“, erläutert Liu.

Darüber hinaus würde die dynamische Speicherallokation eine effiziente Zuweisung von Shared-Memory und Hauptspeicher ermöglichen. Dadurch ließen sich die verfügbaren Ressourcen besser auszunutzen, ohne die Rechenleistung zu beeinträchtigen. Schließlich unterstützt die Kneron-NPU jetzt mehr „Convolutional Neural Networks“-Modelles, kurz CNN. Dazu zählen Vgg16, Resnet, GoogleNet, YOLO, Tiny YOLO, Lenet, MobileNet und Densenet. „Durch die optimierte CNN-Unterstützung konnten wir die Leistung um 150 bis 300 Prozent erhöhen“, freut sich Liu.

E-Commerce-Gigant Alibaba schluckt chinesische IoT-Prozessor-Firma C-Sky

E-Commerce-Gigant Alibaba schluckt chinesische IoT-Prozessor-Firma C-Sky

24.04.18 - Das auf Embedded-Prozessoren spezialisierte IP-Entwicklungsunternehmen C-Sky Microsystems hat einen neuen Eigner: den E-Commerce-Riesen Alibaba. Beide Firmen haben ihren Hauptsitz im chinesischen Hangzhou – und arbeiten bereits an neuen IoT-Lösungen. lesen

KI im Embedded-Einsatz: Erster neuromorpher SoC-Baustein angekündigt

KI im Embedded-Einsatz: Erster neuromorpher SoC-Baustein angekündigt

10.09.18 - Eine neue Art von Beschleunigungs-SoCs soll neuronale Netzwerke und Künstliche Intelligenz (KI) an den Netzwerkrand und in Unternehmen bringen: Brainchip hat mit dem Aikida den ersten in Serie erhältlichen, speziell auf SNNs (Spiked Neural Networks) ausgelegten SoC angekündigt. lesen

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45518729 / KI/Machine Learning)