So halten autonome Fahrzeuge auch bei Dämmerung die Spur

| Autor / Redakteur: Michaël Uyttersprot * / Margit Kuther

Eine Entwicklungslösung, basierend auf Kompromissen

Die Entwicklung eines Bildverarbeitungssystems für autonome Fahrzeuge erfordert viel Experimentieren mit realen Daten und eine Systemoptimierung zwischen Hardware, Software, computergestütztem Sehen und Maschinenlern-Aspekten des Designs. Entwickler benötigen daher Tools, die sie dabei unterstützen, Kompromisse zu finden, um die Entwicklungsdauer und das Entwicklungsrisiko zu minimieren.

Die hier vorgestellte Entwicklungslösung beinhaltet ein Embedded-Bildverarbeitungssystem mit mehreren Kameras. Sie umfasst eine Entwurfsmethodik, die Hardwareplattform, eine Softwareumgebung, Treiber, sowie den Zugriff auf Beispiel-Algorithmen und Implementierungen für computerunterstütztes Sehen und Maschinenlern-Algorithmen und Implementierungen.

Die Hardware (Bild 1, siehe Bildergalerie) kann bis zu sechs Kameras unterstützen. Das aktuelle Design meistert vier 2-Megapixel-Kameras. Diese Funktion wird in Zukunft um zwei weitere 8-Megapixel-Kameras erweitert werden. Das Design basiert auf einem Zynq UltraScale+ MPSoC von Xilinx, der einen 64-Bit-Quadcore-Prozessor ARM Cortex-A53 sowie eine FPGA-Logikstruktur enthält. Die Kameras werden über Koaxialkabel mit einer Länge von bis zu 15 m mit einem Deserialisierer für mehrere Kameras auf einer FPGA-Mezzanine-Karte (FMC) verbunden. Dieses Modul wird auf eine Platine aufgesteckt, auf der sich der MPSoC befindet.

Die Zynq UltraScale+ MPSoCs (Bild 2) sind mit verschiedenen CPUs und optional mit einer GPU und zusätzlichen Hardware-Videocodecs erhältlich. Sie bieten außerdem eine programmierbare FPGA-Logikstruktur, die sich als Hardwarebeschleuniger für rechenintensive Algorithmen oder für weitere Funktionen verwenden lässt – zum Beispiel über die Verwendung von IP-Blöcken von XILINX oder von Drittanbietern.

Die Entwurfsmethodik, basierend auf Software

Die Entwurfsmethodik basiert auf reVISION, einer Reihe von Softwareressourcen zur Entwicklung von Algorithmen, Anwendungen und Plattformen. Sie arbeitet mit aktuellen Entwicklungstools für das Design von Hardware- und Softwareanwendungen, darunter die SDSoC-Umgebung von Xilinx, PetaLinux und Bibliotheken für Computer-Sehen und Maschinenlernen. Bild 3 zeigt ein vereinfachtes Diagramm der gesamten Hardware-/Software-Architektur.

Die Entwicklungs-Toolchain unterstützt auch GStreamer, ein Pipeline-basiertes Multimedia-Framework, mit dem Entwickler verschiedene Medienverarbeitungssysteme verknüpfen können, um komplexe Workflows abzuschließen. Das Pipeline-basierte Design wurde bisher für das Erstellen von Anwendungen wie Video-Editoren und Transcodern und der Verteilung von Media Streams verwendet, die auch eine Grundlage für das Erstellen einer auf Deep-Learning-basierenden Analyse von Streaming-Media-Daten bilden.

Maschinenlern-Strategien bei Mehrkamerasystemen

Die Verwendung von Maschinenlern-Strategien bei Mehrkamerasystemen, einschließlich der Deep-Learning-Algorithmen mit mehreren internen Netzwerkebenen bedeutet für Bildverarbeitungssysteme mit mehreren Kameras, dass effiziente Möglichkeiten gefunden werden müssen, um auf die Systemressourcen mit sehr hoher Rechenleistung zugreifen zu können. Die programmierbare Logikstruktur des MPSoC von Xilinx bietet eine hohe dedizierte Rechenleistung – während die Toolchains, die das Unternehmen anbietet, sicherstellen, dass diese Ressourcen so effektiv wie möglich genutzt werden.

Neuere Forschungen haben gezeigt, dass es für die Ausführung von neuronalen Netzen möglich ist, die Rechenlast zu reduzieren, indem Matrixberechnungen, die nur eine sehr geringe Auswirkung auf das Ergebnis haben, aus der Netzwerkbeschreibung entfernt werden. Außerdem besteht die Möglichkeit, die Genauigkeit des verwendeten Zahlenraums zu verringern und 16- oder 8-Bit-Integer-Datentypen zu verwenden anstelle der komplexeren 32-Bit-Fließkomma-Typen. Für bestimmte Teile der Netzwerke kann sogar mit noch geringeren Auflösungen bis hin zur Binärdarstellung gearbeitet werden.

Xilinx hat das Unternehmen DeePhi Tech erworben, das Tools zur Implementierung und zur Optimierung von Deep-Learning-Algorithmen anbietet. Das DNNDK (Deep Neural Network Entwicklungskit) von DeePhi unterstützt die beliebtesten Entwicklungsplattformen für Deep-Learning-Netzwerke wie TensorFlow von Google oder Caffe als Eingabe. Diese Toolkits ermöglichen es Entwicklern, mit verschiedenen Typen und Konfigurationen von Algorithmen für Deep Learning zu experimentieren. Ihre Ausgabe wird dann in die DNNDK-Toolchain übernommen, die ein Graph-Komprimierungstool (bekannt als DECENT), einen Deep Neural Netzwerk-Compiler (DNNC) und Assembler (DNNAS) und eine Laufzeitumgebung für neuronale Netzwerke (N2Cube) umfasst. DeePhi hat auch Hardwarearchitekturen entwickelt, die für die Video- und Bilderkennung optimiert sind und mit XILINX SOCs verwendet werden können. Simulatoren und Profiler sind in der DNNDK Toolchain ebenfalls enthalten.

Fazit: Es besteht großes Interesse an der Entwicklung von Embedded-Bildverarbeitungssystemen für die Steuerung autonomer Fahrzeuge. Avnet Silica bietet Embedded-Bildverarbeitungslösungen, die mit Tools und Referenzdesigns gebündelt werden, um die Entwicklung dieser Bildverarbeitungssysteme zu beschleunigen (siehe Abbildung Seite 36). Durch die Neuheit einiger der verwendeten Techniken und die Notwendigkeit, mit realen Daten zu arbeiten, müssen Entwickler so schnell wie möglich mit Algorithmen und Systemoptimierungen experimentieren können. Das hier beschriebene Entwicklungssystem ermöglicht einen schnellen Start und erleichtert den Zugriff auf die Vorteile der Hardwarebeschleunigung und Modellkomprimierung.

* Michaël Uyttersprot ist Market Segment Manager Artificial Intelligence and Vision bei Avnet Silica

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45674235 / Automotive)