So entwickeln Sie Embedded-Vision-Systeme effizient

| Autor / Redakteur: Michaël Uyttersprot * / Margit Kuther

Die Wahl des optimalen Prozessors und Speichers

Den passenden Prozessor sollten Entwickler anhand von Aspekten wie der benötigten Echtzeit-Performance, Leistungsaufnahme und Bildpräzision sowie der Komplexität der Algorithmen auswählen. Hier gibt es kontinuierlich Verbesserungen bei der Rechenleistung und den unterstützten Bildverarbeitungsalgorithmen. Zudem wird für den Einsatz in Automobil-, Robotik- und Drohnen-Applikationen auch die SLAM-Methodik (Simultaneous Localisation And Mapping) zunehmend integriert.

Embedded-Vision-Systeme benötigen zudem auch lokalen Speicher, um Bilder vergleichen oder Bilddaten für eine spätere Auswertung speichern zu können. Für die Speicherung selektierter Bildelemente oder aller erfassten Bilddaten werden in der Regel sowohl flüchtiger als auch nichtflüchtiger Speicher genutzt.

Spezialisierte Bildverarbeitungsalgorithmen sind ebenfalls elementar – um beispielsweise den Videobildeingang zu steuern und die Bilddaten für spezifische Aufgaben aufzubereiten. Beispiele hierfür sind die Farboptimierung oder Verbesserung der Objekterkennung.

OpenCV beinhaltet Programmcode mit C/C++-Funktionen

Vor einigen Jahren wurde zudem die Open-Source-Bibliothek OpenCV eingeführt, was die Entwicklung und Implementierung von Algorithmen dramatisch verändert hat. OpenCV ist auf die Bildverarbeitung ausgerichtet und beinhaltet Programmcode mit C/C++-Funktionen, was die Portierung und Ausführung von Algorithmen auf Embedded-Prozessoren deutlich vereinfacht. Es gibt bereits viele Bild- und Videoverarbeitungslösungen von Drittanbietern auf Basis von OpenCV oder vergleichbaren Bibliotheken. Für viele Anwendungen gibt es sogar ganze Frameworks, die die Entwicklung deutlich erleichtern. Auch Chiphersteller bieten in der Regel eigene Bildverarbeitungsbibliotheken an, um die Bildverarbeitungsleistung ihrer Produkte nochmals deutlich zu optimieren.

Ein weiteres, zunehmend wichtigeres Element im Zeitalter des IoTs ist die zur Applikation passende, drahtlose oder drahtgebunden Vernetzung. Auch die Frage, ob die Analysealgorithmen beim Sensor vor Ort oder auf Cloud-basierenden Servern betrieben werden sollen, ist ein wichtiger Einflussfaktor.

Letztendlich ist es wichtig, zuerst die passenden Komponenten für das jeweilige System und die Applikation auszuwählen und erst dann die Feinabstimmung von Hardware, Software und Algorithmen vorzunehmen. Dieses Procedere ist allerdings nicht immer einfach. Entwickler benötigen aufgrund der Komplexität von Embedded Vision Applikationen deshalb professionelle Tools, mit denen sie die Entwicklungskosten, -zeit und -risiken minimieren und ihre Projekte schneller auf den Markt bringen können.

Komplette Embedded-Vision-Lösungen von Avnet Silica

Avnet Silica verfügt über eine umfassende Erfahrung, seine Kunden bei der Entwicklung von Embedded Vision Applikationen zu unterstützen. Das Unternehmen bietet praktisch alle benötigten Building-Blocks für komplette Embedded-Vision-Systeme – inklusive optimierter Hard- und Software sowie Treibern und Applikationen. Die Liste verfügbarer Komponenten reicht von Bildsensor- und Kameramodulen auf der Eingangsseite bis hin zu dedizierter Hardware wie Prozessoren, Speicher und Komponenten für die Stromversorgung, die Entwickler benötigen, um die strikten Vorgaben für Rechenleistung und Stromverbrauch zu erfüllen. Alle diese Komponenten ergänzt Avnet Silica mit Softwareentwicklungstools, Treibersoftware für Kameras, exemplarischen Referenzdesigns und einem umfassenden Fachwissen über Bildverarbeitungssoftware und Algorithmen.

Avnet Silica hilft seinen Kunden aber nicht nur bei der Entwicklung von Embedded-Vision-Plattformen und -Produkten, sondern bietet Entwicklern auch eine breite Palette von fertigen Kameraentwicklungskits an. Ein Beispiel ist das PicoZed Embedded-Vision-Kit mit dem hochflexiblen PicoZed-System-on-Module (SoM) auf Basis des programmierbaren System-on-Chips (SoC) Xilinx Zynq-7000. Das PicoZed Kit ist ideal für Applikationen im Bereich des maschinellen Sehens und beinhaltet alle für die Entwicklung von kundenspezifischen Videoverarbeitungslösungen benötigte Hardware, Software und IP. Das Kit unterstützt den rekonfigurierbaren reVISION Stack, der für Computer-Vision und bildbasiertes maschinelles Lernen optimiert ist. Der Stack bietet Ressourcen für die Plattform-, Algorithmen- und Applikationsentwicklung, nutzt hardwarebeschleunigte OpenCV-Funktionen und unterstützt die die wichtigsten neuronalen Netzwerke.

Ein weiteres Beispiel ist das Kamera-Entwicklungskit STM32F7 von Avnet Silica. Das kostengünstige Kit für die ARM mbed IoT Device Platform besticht durch seinen geringen Stromverbrauch, USB Support, einen 4,3“ kapazitiven Farb-Touchscreen. Es beinhaltet sämtliche Hard- und Software, die für die schnelle Entwicklung von Embedded Vision Applikationen im IoT-Umfeld, der Gebäude- und Heimautomatisierung sowie in vielen anderen Videoverarbeitungsapplikationen benötigt wird.

Das dritte Kit ist das Low-Power Kit Kinetis. Es basiert auf dem Cortex-M4-Mikrocontroller NXP Kinetis K82F mit einem VGA-Kameramodul im Miniaturformat, Flex-Konnektor, 90°-Sichtfeld und Infrarot-Filter. Damit können Standbilder aufgenommen oder Videos mit niedriger Auflösung in Echtzeit gestreamt werden.

Avnet Silica arbeitet kontinuierlich an der Entwicklung weiterer Produkte, um das Angebot an Off-the-Shelf Kits zu erweitern und damit seinen Kunden ein noch umfassenderes Angebot an fortschrittlichen Embedded-Vision-Lösungen bereitstellen zu können.

* Michaël Uyttersprot ist Technical Marketing Manager bei Avnet Silica

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45070633 / Bildverarbeitung)