Automatisiertes Fahren

Continental entwickelt 3-D-Umfelderfassung

| Redakteur: Thomas Günnel

Der hochauflösende 3D Flash LIDAR-Sensor erfasst bis zu 200 Meter entfernte Objekte.
Der hochauflösende 3D Flash LIDAR-Sensor erfasst bis zu 200 Meter entfernte Objekte. (Bild: Continental)

Continental arbeitet an der nächsten Generation des so genannten Umfeldmodells. Es liefert eine detailgetreue und nahtlose 360-Grad-Darstellung der gesamten Fahrzeugumgebung.

Eine Grundvoraussetzung für hochentwickelte Fahrerassistenzfunktionen und automatisiertes Fahren ist eine zuverlässige Wahrnehmung der Fahrzeugumgebung und dessen präzise Bewertung. Continental arbeitet an der nächsten Generation des Umfeldmodells, das eine detailgetreue und nahtlose 360-Grad-Darstellung der gesamten Fahrzeugumgebung liefert. „Um diese Informationen zu sammeln, sind diverse Sensoren wie Radar, Kamera und Surround View-Systeme erforderlich. Ziel ist es, ein dem Menschen gleichwertiges oder besseres Verständnis des Fahrzeugumfeldes zu erreichen.“, sagt Karl Haupt, Leiter des Geschäftsbereichs Fahrerassistenzsysteme bei Continental Jeder Umfeldsensor stößt dabei bei manchen Anwendungen an seine jeweiligen physikalischen Grenzen. Neben zusätzlichen Informationen, wie aus dem Backend, sind weitere Sensoren für eine höhere Zuverlässigkeit und größere Robustheit und für weitere Redundanz notwendig.

Umfeld dreidimensional erfassen

„Wir arbeiten deshalb an einem „High Resolution 3-D Flash LIDAR“, der den Anforderungen an die Umfelderfassung gerecht wird. Der Sensor bietet eine 3-D-Umfelderfassung in Echtzeit und das ohne mechanisch bewegte Komponenten“, erläutert Haupt. Der neue Sensor soll ein detaillierteres Bild der Umgebung liefern – zu jeder Tageszeit, auch bei widrigen Wetterverhältnissen und in bis zu 200 Metern Entfernung. Die Verarbeitung der einzelnen Sensordaten erfolgt entweder im Sensor selbst oder in einem zentralen Steuergerät, das die unterschiedlichen Daten sammelt, um die Fahrzeugumgebung in einem Umfeldmodell hochgenau abbilden zu können. Der Start der Serienproduktion des Sensors ist für das Jahr 2020 vorgesehen.

Je mehr Informationen verarbeitet und analysiert werden müssen, desto mehr Rechenleistung und somit leistungsfähigere Steuergeräte als heute sind für die Erstellung des Umfeldmodells erforderlich. Das Umfeldmodell ist dabei als eine Software-Zwischenschicht zwischen den einzelnen Sensoren und den unterschiedlichen Anwendungen zu verstehen. Sie enthält Datenfusionsalgorithmen für eine höhere Genauigkeit, Zuverlässigkeit und für einen erweiterten Sichtbereich einzelner Sensoren. Eine zentrale Stelle, um die gesammelten Informationen auszuwerten und zu interpretieren, ist die „Assisted & Automated Driving Control Unit“, in der das Umfeldmodell mehr als fünfzigmal pro Sekunde erstellt wird. Das Steuergerät wiederum ist ein Zentralrechner-Verbund aus mehreren heterogenen Recheneinheiten.

Die Technik des Sensors

Verglichen mit heute oft eingesetzten Scanner-Komponenten besteht der Sensor aus zwei Schlüsselkomponenten: einem Pulslaser als Sendequelle – wie der Blitz einer Fotokamera – der die Fahrzeugumgebung in einer Entfernung bis über 200 Metern abtastet, und einem hoch integrierten Empfangschip. Dieser ähnelt dem Sensorchip einer Digitalkamera, kann aber pro Pixel die Pulslaufzeit von mehreren reflektierten Lichtsignalen erfassen – diese entspricht der Entfernung zu Objekten. „Ein komplettes 3-D-Modell der Fahrzeugumgebung von bis zu über 200 Meter und auf wenige Zentimeter genau wird auf diese Weise innerhalb von 1,32 Mikrosekunden und dreißigmal jede Sekunde erstellt. Zudem wird die Entfernung zu einzelnen Objekten genau erkannt“, erläutert Arnaud Lagandré, Leiter des Geschäftsbereichs „High Resolution 3-D Flash LIDAR“. „Aufgrund der geringen Komplexität und damit guten Industrialisierbarkeit lassen sich mehrere Sensoren rings um das Fahrzeug realisieren, um in Echtzeit komplette 360-Grad-Abbildungen der Umgebung zu erzeugen.“ Bis zum Jahr 2019 will der Zulieferer eine skalierbare Produktfamilie für assistiertes und automatisiertes Fahren mit höchsten Sicherheitsanforderungen (ASIL D) anbieten.

Wenn Autos mit Ampeln reden

blog.electronica.de

Wenn Autos mit Ampeln reden

18.10.16 - Moderne Automobile sind fahrende Computer, die ständig Daten erheben, speichern und senden. Mit neuen Technologien zur Echtzeitkommunikation öffnen sich die Fahrzeuge immer mehr dem Datenaustausch mit der Infrastruktur, anderen Autos und Passanten. lesen

Flash-Lidar verbessert die Umwelterkennung

Autonomes Fahren

Flash-Lidar verbessert die Umwelterkennung

04.10.16 - Fraunhofer-Forscher sind überzeugt, dass die Laser-gestützte Lidar-Technik den ersten schweren Unfall mit einem autonom fahrenden Auto hätte verhindern können. Der Ansatz des Fraunhofer-Teams setzt auf empfindliche Sensor-Chips und kommt ohne rotierende Spiegel aus. lesen

Ford und Baidu investieren in optische Lidar-Technik

Autonomes Fahren

Ford und Baidu investieren in optische Lidar-Technik

17.08.16 - Der Automobilhersteller Ford und der chinesische Suchmaschinengigant Baidu stecken 150 Millionen Dollar in das US-Unternehmen Velodyne. Die in Kalifornien beheimatete Firma ist auf Lidar-Sensoren spezialisiert. lesen

Dieser Beitrag erschien ursprünglich auf unserem Partnerportal Automobil Industrie.

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 44451487 / Automotive)