SWIR: Leben retten mit kurzwelligen Infrarot-Signalen

| Autor: Michael Eckstein

Sensorfusion: Eine SWIR-Kamera kann Lidar-, Radar- und optische Sensoren ergänzen und ADAS auch bei schlechter Sicht besser sehen lassen.
Sensorfusion: Eine SWIR-Kamera kann Lidar-, Radar- und optische Sensoren ergänzen und ADAS auch bei schlechter Sicht besser sehen lassen. (Bild: Continental)

SWIR-Sensoren für kurzwelliges Infrarotlicht lassen ADAS besser sehen. Doch die bislang InGaAs-basierten Komponenten sind teuer. Mit seinem neuen CMOS-Sensor will das israelische Start-Up TriEye die SWIR-Technologie fit für den automobilen Massenmarkt machen.

Schlechte Sichtverhältnisse sind einer der Hauptgründe für Unfälle im Straßenverkehr. Sensoren an modernen Fahrzeugen sollen Unfälle verhindern helfen. Doch gerade bei Nebel, Staub, bei Nacht oder anderen Sichtbeeinträchtigungen versagen noch viele Techniken. Selbst eine Kombination mehrerer Erfassungslösungen wie Radar, Lidar und optische Kameras ist praktisch nicht in der Lage, Objekte wie Radfahrer oder Fußgänger bei Nacht unter widrigen Bedingungen genau zu erkennen und zu identifizieren.

„Diese Einschränkung behindert den großflächigen Einsatz und die Akzeptanz von ADAS und autonomen Fahrzeugen“, ist Ziv Livne, Vice President Product and Business Development von TriEye, überzeugt. Eine Lösung sind InGaAs-basierte SWIR-Kameras (Short Wavelength Infrared). SWIR steht für kurzwelliges Licht im Spektralbereich der Infrarotstrahlung. Konkret ist damit der Wellenlängenbereich von 1,4 bis 3,0 µm gemeint. Die Wellenlänge von 1,3 µm wird beispielsweise für die optische Übertragung in Lichtwellenleitern verwendet.

SWIR-Sensoren sollen in der Lage sein, auch bei ungünstigen Wetter- und Sichtbedingungen Hindernisse eindeutig erkennen zu können. Das Problem: SWIR-Sensoren sind bislang sehr teuer und kaum für den Massenmarkt geeignet. Zum Einsatz kommen sie bislang zum Beispiel in der Luftfahrt. Das israelische Startup-Unternehmen TriEye möchte das ändern und entwickelt derzeit eine Kamera, die SWIR für den – zunächst automobilen – Massenmarkt verfügbar machen soll.

Dank CMOS: Tausendmal günstiger als InGaAs-Sensoren

Während bisherige SWIR-Sensoren häufig aus einem Indium-Gallium-Arsenid-Materialmix (InGaAs) bestehen, setzt TriEye für seinen „Raven“ genannten SWIR-Sensor auf den aus der Chip-Fertigung bekannte CMOS-Prozess – vergleichbar zu Fotosensoren herkömmlicher Digitalkameras. Dies soll eine gut skalierbare und damit kosteneffiziente Massenfertigung ermöglichen. „Im Vergleich zur aktuellen InGaAs-Technologie sinken die Fertigungskosten für SWIR-Sensoren um Faktor 1000“, sagt Livne.

So könne TriEye kostengünstige, hochauflösende HD-SWIR-Kameras im Miniaturformat herstellen, die eine einfache Montage im Fahrzeug beispielsweise hinter der Windschutzscheibe des Autos ermöglicht. Die vom Raven-Sensor erzeugten Bilddaten lassen sich laut Livne „nahtlos in existierende ADAS- und AV-Architekturen integrieren“. Zudem könnten sie bewährte, auch KI-basierte Bildverarbeitungsalgorithmen zum Beispiel für die Objekterkennung nutzen.

TriEye SWIR: Hohe Auflösung, bewährte Schnittstellen

TriEyes HD-SWIR-Kamera hat nach Angaben des Unternehmens eine Auflösung von 1280 x 960 px und kann 30 Bilder pro Sekunde aufnehmen. Diese liefert sie über Hochgeschwindigkeits-Videoschnittstellen aus – entweder per GMSL-II- (Gigabit Multimedia Serial Link II) oder FPD-Link-III-SerDes. Das Sichtfeld (Field of View, FOV) überspannt horizontale und vertikale Blickwinkel von wahlweise 17° x 12° oder 46° x 34°.

Die nach IP68 staub- und wassergeschützte Kamera misst 3 cm x 3 cm x 2,5 cm und ist in erster Linie auf Anwendungen in der Automobilindustrie ausgerichtet. Sie eignet sich nach eigenen Aussagen aber auch für viele andere Branchen für optische Inspektionen in der industriellen Fertigung oder sogar für mobile Testgeräte. Hier sieht das Unternehmen Wachstumspotenzial, dass es in den nächsten Jahren mit weiteren Produkten erschließen will.

17 Mio. US-Dollar VC: Intel Capital und USB-Stick-Erfinder als Financier überzeugt

Mit seiner SWIR-Technologie konnte das israelische Unternehmen solvente Geldgeber bei einer von Intel Capital angeführten Finanzierungsrunde überzeugen: Satte 17 Mio. US-Dollar sammelte TriEye ein. Zu den weiteren Investoren zählen Marius Nacht, Mitbegründer von Check Point Software Technologies, und TriEyes bestehender Investor Grove Ventures unter der Leitung des TriEye-Vorsitzenden Dov Moran, dem Erfinder des USB-Flash-Laufwerks („USB-Stick“) und Mitbegründer von M-Systems. Insgesamt hat TriEye damit bisher mehr als 20 Mio. US-Dollar Wagniskapital erhalten: Grove Ventures unterstützte das israelische Start-Up bereits 2017, nur ein Jahr nach dessen Gründung, mit 3 Mio. US-Dollar Startkapital.

TriEye wurde 2016 von Avi Bakal (CEO), Omer Kapach (Vizepräsident für Forschung und Entwicklung) und Prof. Uriel Levy (CTO) nach fast einem Jahrzehnt fortgeschrittener nanophotonischer Forschung von Prof. Levy an der Hebräischen Universität in Jerusalem gegründet. Die jetzt eingeworbene Mittel will Bakal und sein Team einsetzen, „um unsere Produkt-Roadmap für HD-SWIR-Lösungen, einschließlich unserer proprietären Erfassungsalgorithmen, umzusetzen.“

Yair Shoham, der israelische Geschäftsführer von Intel Capital, begründet das Engagement seines Unternehmens: „Der Trend in der Automobilindustrie geht hin zum autonomen Fahren. Daher erwarten wir, dass die Nachfrage nach Sensortechnologien schnell zunehmen wird.“ Die SWIR-Technologie von TriEye habe das Potenzial, die Erfassungsleistung bei niedriger Sichtweite zu verbessern und bisherige optische Kamerasysteme zu ergänzen. Erste Muster will TriEye ab 2020 ausliefern.

Interview mit Ziv Livne, Vice President Product and Business Development von TriEye

Ziv Livne:Vice President Product and Business Development von TriEye.
Ziv Livne:Vice President Product and Business Development von TriEye. (Bild: David Garb)

Herr Livne, Ihrer Meinung nach ist es für die Zukunft der Automobilindustrie mit entscheidend, dass Fahrzeuge besser „sehen“ können. Warum?

Eine grundlegende Herausforderung für ADAS und autonome Fahrzeuge ist die Fähigkeit, auch bei widrigen Wetterbedingungen und schlechten Lichtverhältnissen zuverlässig zu funktionieren. Dazu müssen sie ihre Umgebung jederzeit genau „im Blick“ haben. Bislang ist dies ein großes Problem. Die Folge: Ein erheblicher Prozentsatz der schweren Verkehrsunfälle ereignet sich bei schlechten Sichtverhältnissen. Erst wenn diese Problematik gelöst ist, können autonome Systeme sicherere und zuverlässigere Fahrentscheidungen treffen. Ich bin überzeugt, dass dies Leben retten wird.

Welche sind die häufigsten Unfälle, die durch schlechte Sicht verursacht werden?

Schlechte Sichtverhältnisse wie Nebel, Dunkelheit, Dunst, Eis auf der Straße, Rauch und Staub sind einige der Hauptursachen für Verletzungen und Todesfälle bei Autounfällen. Beispiel USA: Jedes Jahr werden in den USA über 418.000 Menschen verletzt und fast 5.000 Menschen durch Unfälle, die durch häufige schlechte Sichtverhältnisse verursacht werden, getötet. In Deutschland ereignen sich rund 50 Prozent der tödlichen Autounfälle in der Nacht, obwohl durchschnittlich 75 Prozent aller Fahrten tagsüber stattfinden. Das bedeutet, dass das Risiko, nachts zu fahren, doppelt so hoch ist wie am Tag. Die Unfallstatistik in ganz Europa rechtfertigt auch eine intensive Auseinandersetzung mit dem Thema nächtliches Fahren. Schätzungen zufolge werden in Europa ca. 560.000 Menschen durch Autofahrten in der Dunkelheit verletzt und 23.000 Menschen getötet.

Welche Versuche laufen derzeit, um die Umgebungserkennung auch bei schlechter Sicht zu verbessern?

Die Automobilindustrie ist sich dieses Problems bewusst und sucht aktiv nach der richtigen Sensorik-Kombination, die diese Herausforderung löst. Mir sind jedoch keine erfolgreichen Lösungen über unsere eigenen Produkte hinaus bekannt, die die Erkennungsleistung bei schlechter Sicht signifikant verbessern.

Welche Vor- und Nachteile haben die derzeitigen Möglichkeiten, mit der schlechten Sichtbarkeit umzugehen?

Bestehende Advanced Driver Assistance Systems versagen bei schlechten Sichtverhältnissen. Selbst die Kombination von Sensoren, etwa Standard-Visionskameras, Lidar und Radar, zu einer Sensor-Fusionslösung arbeitet unzureichend und zu ungenau, um potenzielle Gefahren auf der Straße bei häufigen schlechten Sichtverhältnissen zu erkennen.

Wie kann die Branche ihrer Meinung nach diese Probleme lösen und ADAS besser „sehen“ lassen?

SWIR-Sensorik ermöglicht ADAS das Sehen bei widrigen Wetter- und Nachtbedingungen und somit eine bessere Visualisierung von potenziellen Gefahren auf der Straße. Damit möglichst viele Anwender davon profitieren können, muss diese Technik sehr günstig verfügbar sein – was sie bislang nicht ist. Erst die CMOS-Fertigung von SWIR-Sensoren macht die Technologie für den Massenmarkt interessant. Mit unserem CMOS-basierten Raven-Sensor sind wir also sehr gut positioniert.

Der Status quo von Lidar in selbstfahrenden Autos

Der Status quo von Lidar in selbstfahrenden Autos

12.07.19 - Lidar gilt als die Schlüsseltechnik für selbstfahrende Autos. Doch neu ist Lidar nicht. Vielmehr stößt die Autoindustrie gerade einige neue Entwicklungen an. Ein Überblick des Status quo. lesen

SoCs für ADAS und AV: Neue Simulations-Plattform entschärft Entwickler-Albtraum

SoCs für ADAS und AV: Neue Simulations-Plattform entschärft Entwickler-Albtraum

31.05.19 - Autonome Fahrzeuge und ADAS schneller entwickeln trotz strenger Sicherheitsvorschriften: Das verspricht Siemens mit seinem neuen Test- und Validierungssystem PAVE360. Damit sollen sich Automotive-Chips bereits nach ISO 26262 validieren lassen, bevor sie das virtuelle Reißbrett verlassen. lesen

Elektromobilität stimuliert Nachfrage nach neuen Mikrocontrollern

Elektromobilität stimuliert Nachfrage nach neuen Mikrocontrollern

30.04.19 - Die Nachfrage nach Mikrocontrollern nimmt durch die Elektromobilität zu. Doch um den Anforderungen der in Elektrofahrzeugen eingesetzten Architekturen gerecht zu werden, müssen Innovationen auf dem Gebiet der Mikrocontroller rascher umgesetzt werden. lesen

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45991710 / Sensorik)