So entwickeln Sie Embedded-Vision-Systeme effizient

| Autor / Redakteur: Michaël Uyttersprot * / Margit Kuther

Kamera-Kit STM32F7: Es beinhaltet sämtliche Hard- und Software für die Embedded-Vision-Entwicklung.
Kamera-Kit STM32F7: Es beinhaltet sämtliche Hard- und Software für die Embedded-Vision-Entwicklung. (Bild: Avnet Silica)

Eingebettete Vision-Systeme, etwa zur Personenkontrolle, erobern unseren Alltag. Entwickler müssen für den jeweils spezifischen Einsatz die optimale Komponente wie Display, CPU, GPU und Schnittstellen finden. Avnet Silica informiert.

Die reichhaltigsten Informationen, die Sensoren liefern können, sind wahrscheinlich visuelle Inputs. Wissenschaftler und Ingenieure arbeiten bereits seit Dekaden an neuen Bildverarbeitungstechnologien.

Sie entwickeln kontinuierlich neue Algorithmen, damit Computer immer besser ‚sehen‘ können.

Erste kommerzielle Applikationen für maschinelles Sehen analysierten schnell bewegte Objekte und untersuchten sie auf Produktfehler. Durch den kontinuierlichen Fortschritt bei Bildsensoren, Rechenleistung und Leistungsaufnahme sowie bei Computeralgorithmen und maschinellem Lernen haben Vision-Systeme heute aber ein deutlich höheres Leistungsniveau erreicht.

Kombiniert man diese computerbasierenden Vision-Technologien mit aktuellen Embedded-System-Plattformen, entstehen Embedded-Vision-Systeme, deren Verbreitung in den nächsten Jahren rasant fortschreiten wird. Es wird Lösungen für besonders lichtschwache Umgebungen oder für extrem hohe Auflösungen geben; und High-End-Applikationen werden mit speziell entwickelten Recheneinheiten bestückt sein, die Deep-Learning-Algorithmen ermöglichen. Hieraus entstehen viele neue Anwendungsfelder und Produkte mit visuellem Input – für den Consumermarkt, die Automotive-Industrie, das Gesundheitswesen, die Heim- und Gebäudeautomatisierung, Industrie 4.0 sowie die öffentliche Sicherheit.

Smarte Geräte werden unser Leben vereinfachen

Durch das Internet der Dinge und durch die Aussicht, dass Milliarden Devices vernetzt werden, vollzieht sich derzeit zudem auch in der Elektronikindustrie ein drastischer Wandel. Über das IoT sollen Devices aller Art intelligent werden und sich von überall auf der Welt steuern lassen. Doch was ist Intelligenz bei Geräten? Geräte gelten in der Regel dann als intelligent, wenn sie unser Leben deutlich vereinfachen. Ein Beispiel unter vielen, was möglich wird, ist eine automatische Bewohner-Erkennung über Videotelefon mit personenbezogenem Einlass in ein Gebäude.

Intelligente Devices sind zudem in der Regel umso nützlicher, je mehr sie mit der physischen Welt interagieren können. Visuelle Daten (Bilder) sind hierbei besonders nützlich: Sie bieten besonders umfassende Informationen und helfen Systemen enorm, mit der physischen Umgebung angemessen interagieren zu können. Ein klassisches Beispiel ist die Robotik, die schon von jeher Bildsensoren nutzt. Das Eingangssystem Bildsensor hilft den Robotern, die Ausgabesystem Motor effizient zu steuern.

Neueste Weiterentwicklungen des maschinellen Lernens wie Convolutional Neural Networks – deutsch auch faltendes neuronales Netzwerk genannt – und weitere neuronale Netzwerktechnologien ermöglichen es zudem, selbstlernende intelligente Vision-Systeme zu entwickeln.

Hohe Auflösungen, Datenströme und Echtzeitanforderungen

Mit all diesen Innovationen haben Embedded-Vision-Systeme das Potenzial, für nahezu jeden Teilmarkt der Elektronik enorme Mehrwerte zu bieten. Durch den kontinuierlichen Fortschritt bei Hardware und Software wird der Gesamtmarkt auch schnell weiter wachsen. Allerdings ist die Entwicklung von Embedded Vision Applikationen auch mit zahlreichen Herausforderungen verbunden.

Rohdaten von Bildern und Videos müssen ihrer Qualität entsprechend auch optimiert und verarbeitet werden. Hat die Linse beispielweise keine ausreichende Qualität, wirkt sich das negativ auf das gesamte Bildverarbeitungselement aus. Die erfassten Bilddaten können auch enorm groß ausfallen – insbesondere bei der Echtzeitverarbeitung von Videos mit hoher Auflösung. Die meisten Bildverarbeitungsapplikationen im High-End-Bereich benötigen deshalb parallele Verarbeitungssysteme oder dedizierte Hardware wie General Purpose Graphics Processing Units (GPUs), Digitale Signalprozessoren (DSPs), Field Programmable Arrays (FPGAs) oder Co-Prozessoren.

Gleichzeitig müssen Embedded-Vision-Systeme aber auch oft strikte Grenzen hinsichtlich Kosten, Baugröße und Leistungsaufnahme einhalten. Eine High-End-Verarbeitungseinheit, die die erforderliche Rechenleistung zwar bietet, kann also sowohl zu teuer als auch zu stromhungrig sein.

Wichtig ist zudem, dass Embedded-Vision-Systeme für den Einsatz unter realen Bedingungen entwickelt sind. Sie müssen also auch bei sich ständig verändernden Lichtverhältnissen, Bewegungsgeschwindigkeiten und -richtungen zuverlässig arbeiten. Um die Daten solcher Umgebungsvariablen kontrollieren zu können, ist der Einsatz spezialisierter Bildverarbeitungsalgorithmen erforderlich. Es reicht nämlich nicht aus, sich nur auf Simulationen zu verlassen. Deshalb sind Tests unter realen Bedingungen erforderlich. Diese können allerdings viel Zeit in Anspruch nehmen – insbesondere bei Automotive-, Sicherheits- und Robotik-Applikationen.

Vision-Systeme benötigen unterschiedlichste Bausteine

Embedded-Vision-Systeme basieren auf einer breiten Palette unterschiedlicher Funktionsbausteine, die auf verschiedenste Arten integriert werden können. Grundlegend beinhalten sie aber alle Bilderfassungs-, Verarbeitungs- und Erkennungstechnologien. Auf der Eingangsseite des Systems sind aktuell CMOS- und CCD-Sensoren die beiden führenden Technologien für die Bilderfassung. Auch wenn die CCD-Technologie noch eine höhere Gesamtqualität liefert, so hat doch die CMOS-Technologie in der letzten Dekade den Vorsprung eingeholt.

Neben der besseren Lichtausbeute bei schwacher Beleuchtung haben die verbesserte Bildqualität, der geringere Leistungsbedarf und die geringeren Kosten dazu geführt, dass CMOS-Sensoren heute wesentlich häufiger eingesetzt werden als CCD-Sensoren. Auch entwickelt sich die CMOS-Technologie ständig weiter: Es werden kontinuierlich höhere Auflösungen erzielt, die Pixel werden zudem immer kleiner und die dafür benötigte immer schnellere High-Speed-Anbindung und Bandbreite nimmt ebenfalls konstant zu. Damit einhergehend werden auch immer kleinere Bildsensoren und Module verfügbar, durch die kompakte Dual-Kamera-Lösungen und stereoskopische Vision-Systeme zunehmend Verbreitung finden. Zudem weisen sie geringere Verzerrungen auf, ermöglichen eine Entfernungsmessung sowie einen besseren Kontrastumfang und bieten mehr Bildschärfe.

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45070633 / Bildverarbeitung)