Ein Bildgeber und Distanzsensor für Automotive und Industrie

| Autor / Redakteur: Oliver Wasenmüller, Prof. Dr. Didier Stricker * / Gerd Kucera

Bild 1: Die Kameramatrix besteht aus sechzehn quadratisch angeordneten Einzelkameras, die zusammen nicht nur als Bildgeber, sondern auch als Entfernungsmesser fungieren.
Bild 1: Die Kameramatrix besteht aus sechzehn quadratisch angeordneten Einzelkameras, die zusammen nicht nur als Bildgeber, sondern auch als Entfernungsmesser fungieren. (Bild: Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI))

Nicht größer als ein Cent-Stück wird sie werden – die adaptive Kameramatrix des DAKARA-Projekts, die zusätzlich zum Bild auch präzise Tiefeninformationen in Echtzeit liefert.

Die hier vorgestellte Kameramatrix liefert präzise Tiefenbilder für das automatisierte Fahren und manuelle Montageprozesse in Industrieanwendungen. Der neuartige Image-Sensor für vielfältige Anwendungsmöglichkeiten wird im Projekt DAKARA („Design und Anwendung einer ultrakompakten, energieeffizienten und konfigurierbaren Kameramatrix zur räumlichen Analyse“) entwickelt. Gefördert durch das Bundesministerium für Bildung und Forschung (BMBF) arbeiten in diesem Projekt fünf Partner aus Industrie und Forschung zusammen.

Dreidimensionale Geometrien für Automotive und Industrie

In Produkten wie Smartphones oder Tablets, in industriellen Anwendungen oder in Fahrzeugen sind Farbkameras bereits im Einsatz und erfassen ein zweidimensionales (2D) Abbild der Szene. Während diese Bilder für das menschliche Auge ansprechend aussehen, ist es jedoch für die meisten Bildverarbeitungsalgorithmen sehr schwer, aus einem Farbbild auf die dreidimensionale (3D) Geometrie der Szene zurückzuschließen.

Diese 3D-Information ist allerdings essentiell für verschiedenste professionelle Anwendungen. Im Automobilbereich ist es extrem wichtig die 3D-Geometrie der Umgebung zu kennen, um mit Hilfe von Assistenzsystemen beispielsweise rückwärts einzuparken. Anhand der 3D-Geometrie kann geklärt werden, ob eventuell Objekte den Fahrweg versperren und wie weit diese noch entfernt sind. Mit 2D-Bildern lassen sich zwar ebenfalls Objekte erkennen, die robuste Schätzung des Abstands ist aber nahezu unmöglich.

In Industrieanwendungen werden ähnliche Anforderungen gestellt. Beispielsweise lassen sich anhand der 3D-Geometrie Bauteile zuverlässig erkennen sowie deren Lage exakt bestimmen. Außerdem sind Füllstände von Behältern oder Gesten von Werkern wesentlich robuster erkennbar.

Seitens der Anwendung besteht also ein großer Bedarf an 3D-Bildinformationen, da die reine 2D-Information oft nicht ausreicht. Daher wird im BMBF-geförderten Projekt DAKARA neben den Farbbildern auch ein sogenanntes Tiefenbild berechnet.

Ein Tiefenbild speichert im Vergleich zu einem Farbbild in jedem Pixel nicht den Farbwert, sondern die Tiefe, also den Abstand der Kamera zu dem erfassten Objekt. Eine der Innovationen des DAKARA-Projekts liegt darin, dass dieses Tiefenbild aus sechzehn quadratisch angeordneten Einzelkameras (einer Kameramatrix) berechnet wird. Alle Einzelkameras werden auf einem einzigen Wafer mit etwa 1 mm Dicke angeordnet und mit Linsen versehen. Dadurch sind außergewöhnlich kompakte Bauformen in der Größenordnung einer Cent-Münze möglich.

Die Kameramatrix wird als Global Shutter ausgelegt, sodass sie in späteren Anwendungen auch schnelle Bewegungen zuverlässig erfassen kann. Möglich wird dies durch die innovative Kameratechnologie der ams Sensors Germany.

Der Aufbau als Kameramatrix erfasst die Szene aus sechzehn leicht versetzten Perspektiven und ermöglicht so die 3D-Geometrie (ein Tiefenbild) aus diesen mittels des Lichtfeldprinzips zu berechnen. Zur Berechnung des Tiefenbildes sind korrespondierende Pixel in allen Einzelkameras zu bestimmen, was durch die besondere Anordnung als Kameramatrix vereinfacht wird.

Dazu müssen alle Kameras untereinander kalibriert und ihre relative Position und Rotation sowie ihre projektiven Eigenschaften bestimmt werden. Mittels dieser Kalibrierung lässt sich die zweidimensionale Korrespondenzen-Suche auf eine eindimensionale Suche entlang der sogenannten Epipolarlinie reduzieren.

Zusammengehörige Epipolarlinien aus den einzelnen Bildern der Kameramatrix lassen sich zu einem Epipolarbild-Stapel zusammenfassen. Korrespondierende Punkte liegen auf den leicht schrägen vertikalen Linien. Je schräger die Linie, desto näher liegen die Punkte an der Kamera.

Tipps für die Objektivauswahl zur Machine-Vision-Inspektion

Grundlagen Objektive

Tipps für die Objektivauswahl zur Machine-Vision-Inspektion

20.06.17 - Ein gutes Primärbild ist die Voraussetzung für eine hochwertige und stabile Bildauswertung. Hierbei wird das Zusammenspiel von Objektiv und Beleuchtung häufig noch unterschätzt. lesen

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44849169 / Bildverarbeitung)