Datenzusammenführung

Sensor-Fusion für Embedded-Vision-Applikationen

| Autor / Redakteur: Adam Taylor * / Sebastian Gerstl

Bild 1: Beispiel für heterogene Sensor-Fusion in einem Fahrer-Assistenzsystem (ADAS).
Bild 1: Beispiel für heterogene Sensor-Fusion in einem Fahrer-Assistenzsystem (ADAS). (Bild: Xilinx)

Embedded Vision erfordert harte Echtzeit bei Datenzusammenführung und -verarbeitung. All-Programmable-FPGAs und -SoCs ermöglichen es, mehrere Sensortypen parallel zu betreiben und zu synchronisieren.

Sensoren in vielerlei Gestalt finden rapide Einzug in unsere Lebenswelt. Inzwischen sind sie so weit verbreitet, dass wir kaum mehr darüber nachdenken, wie viele Geräte mit unterschiedlichsten Sensoren wir mit uns führen, etwa in unseren Handys und Smartphones. Mit diesen Sensoren können wir die Änderungen der Umgebungstemperatur, des Luftdrucks, der Beschleunigung oder der Schwerkraft auf einfachste Weise ermitteln, ganz abgesehen von den technologisch weiter fortgeschrittenen Sensoren für GPS-, Radar- oder Lidar-Daten und die Bildverarbeitung.

Sensor-Fusion dient der Extraktion von Daten, die von mehreren verschiedenen Sensortypen stammen. Daraus kann man komplexe Informationen generieren, die mit einem einzigen dieser Sensoren nicht darstellbar sind. Diese lassen sich anschließend im Sinne der vorliegenden Endanwendung weiter verarbeiten und analysieren, um daraus die gegebenen Schlussfolgerungen abzuleiten. Für die Sensor-Fusion gelten zwei grundlegende Klassifizierungen:

  • Echtzeit-Sensor-Fusion – Die Sensordaten werden extrahiert und passend kombiniert, und die daraus abgeleitete Entscheidung basiert auf Echtzeit-Informationen.
  • Offline Sensor-Fusion – Auch bei dieser Vorgehensweise werden die Sensordaten extrahiert und fusioniert, doch die daraus folgenden Entscheidungen werden erst später – off-line - getroffen.

Embedded-Vision-Systeme und Applikationen der Sensor-Fusion sind in meist als Echtzeit-Anwendungen klassifizierbar.

Embedded-Vision- Applikationen im Allgemeinen

Embedded Vision Applikationen verzeichnen derzeit ein signifikantes Wachstum in einem breiten Bereich von Anwendungen, von der Robotik und Fahrerassistenzsystemen (ADAS) bis zur Augmented Reality (AR). Alle diese Embedded Vision Applikationen leiten einen wesentlichen Beitrag zum erfolgreichen Einsatz der jeweiligen Endanwendung. Die Fusion der Informationen des Embedded Vision Systems aus den Daten mehrerer simultan arbeitender, unterschiedlicher Sensoren führt zu einem definitiv besseren Verständnis der Vorgänge in der beobachteten Umwelt. Die Sensor-Fusion erhöht damit die Performance der vorgesehenen Anwendung.

Viele Embedded Vision Applikationen nutzen nur einen einfachen Bildsensor, der in eine Richtung zielt, etwa als Blick nach vorn durch die Frontscheibe eines Autos. Der Einsatz eines solchen Bildsensors bietet in diesem Fall die Möglichkeit, im Fahrweg des Autos auftauchende Objekte zu detektieren, diese zu klassifizieren und in ihren Bewegungen zu verfolgen. Allerdings kann man mit einem einzigen Sensor nicht die Entfernung der Objekte im Bildfeld bestimmen. Man kann also ein anderes Fahrzeug oder einen Fußgänger zwar visuell verfolgen, aber es lässt sich so nicht bestimmen, ob das Risiko einer Kollision besteht.

Dazu braucht es einen weiteren Sensor. In diesem Beispiel könnte das ein Radar- oder Lidar-Sensor mit der Fähigkeit sein, die Distanz zum detektierten Objekt zu messen. Dieser Ansatz nutzt also die Fusion von Informationen aus unterschiedlichen Sensortypen. Deswegen bezeichnet man sie als heterogene Sensor-Fusion. Bild 1 veranschaulicht diese Applikation.

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44574690 / Sensorik)