Softwareseitige Komponenten-Harmonisierung

Eine mögliche Standardschnittstelle für Embedded Vision

| Autor / Redakteur: Martin Cassel * / Sebastian Gerstl

Gen<I>Cam und OPC UA Spezifikationen für Embedded Vision sind die ersten Mittel der Wahl. Welche aktuellen Entwicklungen es im Bereich Softwareanbindung der Teilkomponenten gibt, zeigt der Artikel auf.
Gen<I>Cam und OPC UA Spezifikationen für Embedded Vision sind die ersten Mittel der Wahl. Welche aktuellen Entwicklungen es im Bereich Softwareanbindung der Teilkomponenten gibt, zeigt der Artikel auf. (Bild: © itestro/Fotolia.com)

Eingebettete Bildverarbeitungssysteme benötigen klare Kommunikationsstandards für Hardware, Software und die Anbindung an weiterverarbeitende Systeme in der Produktion und Automation. Mit der Entwicklung dieser Standards und geeigneter Schnittstellen beschäftigt sich die Embedded Vision Study Group (EVSG) in drei Arbeitsgruppen.

Embedded Vision-Systeme sind komplexe, miniaturisierte Geräte bestehend aus Komponenten unterschiedlicher Hersteller. Diese heterogenen Systeme verwenden noch inkonsistente Datenformate, was den Datenaustausch innerhalb des Bildverarbeitungssystems erschwert.

Ein zusätzlicher Einsatz von Sensorverbünden (eine Integration unterschiedlichen Sensorquellen) generiert weitere spezielle Sensordaten, die zusammenzuführen sind. Anstatt aufwändige Schnittstellen zu entwickeln wird eine standardisierte Kommunikation angestrebt, um kompatible Komponenten mit konsistenten Daten aufzubauen und eingebettete Systeme mit mehr Intelligenz auszustatten, ihre Industrietauglichkeit zu gewährleisten und ihren wirtschaftlichen Einsatz sicherzustellen.

Im industriellen Umfeld sind embedded Vision-Systeme häufig mit eingebetteter Rechenleistung und intelligenten Algorithmen ausgestattete cyber-physische Komponenten bestehend aus FPGAs (Field Programmable Gate Arrays), Systems on Chip (SoC) inklusive Spezialprozessoren, speziellen echtzeitfähigen Mikrocontrollern und Hightech-Speichern sowie Multi-Core-Architekturen.

Diese intelligenten aber komplexen Systeme kommunizieren als dezentrale Netzwerkeinheiten immer autonomer und liefern teilweise bereits vollständig aufbereitete Ergebnisdaten. Definierte Kommunikations- und Schnittstellenstandards sind notwendig, um die Daten zur Steuerung der automatisierten Fertigung zu verarbeiten und zur strategischen Planung zu nutzen.

Die EVSG hat sich vorgenommen, diese heterogene Systemarchitektur zu integrieren, und hat im Sommer 2015 ihren Report auf dem G3 Future Standards Forum (FSF) vorgestellt. Darin hat sie drei Technologiefelder als Standard Candidates (SC) herausgestellt, zu denen drei Arbeitsgruppen Schnittstellen-Standards entwickeln werden: modularer Aufbau mit Sensor-Boards und Prozessor-Einheit / System on a Chip (SoC) und deren Kompatibilität (SC1), das Softwaremodell (API) zur Kommunikation mit den eingebetteten Komponenten und deren Steuerung (SC2) und deren Integration in eine Automatisierungs- bzw. Verarbeitungsumgebung (SC3). Für SC1 hat die EVSG bislang keine Empfehlung ausgesprochen. Für SC3 empfiehlt sie, Gen<I>Cam in eine neu zu schaffende OPC UA Companion Specification für die industrielle Bildverarbeitung einzubringen.

Im Rahmen der AUTOMATICA unterzeichneten die VDMA Fachabteilung Industrielle Bildverarbeitung und die OPC Foundation eine Absichtserklärung („Memorandum of Unterstanding“) zur Erarbeitung einer OPC UA Machine Vision Companion Specification. .

Im Bereich Software-API (SC2) ist für den Einsatz von Bildverarbeitungssystemen ein optimiertes Zusammenspiel von elektronischer Hardware und intelligenter Software Voraussetzung, denn eingebettete Vision-Systeme weisen Besonderheiten auf. So bestehen sie aus einer beliebigen Kombination von Komponenten wie FPGAs, ARM-CPUs und GPUs (genannt Prozessormodule, die ein komplettes Messprogramm für die Bildumwandlung oder einen einzelnen Bild-Operator wie einen Filter repräsentieren) und verarbeiten Bilder intern vor.

Dadurch entstehen inkonsistente Bilddatenformate, wie etwa RAW-Bilder, Center of Gravity (Vector2), Label (String), Timestamp (Date), Event und verschlüsselte Daten, etc. Die Vorverarbeitung der Bilder kann in mehreren Schritten stattfinden, weshalb die Kommunikation der Prozessormodule sehr genau aufeinander abgestimmt sein muss. Sie erfordern daher eine einheitliche Beschreibung der Ein- und Ausgänge und müssen darüber hinaus auf einfachem Wege erkannt, angesprochen und konfiguriert werden.

Zusätzlich zu den Bilddaten können andere Datenformate wie Objekte, Blobs und komplexe Ergebnisse entstehen. Diese Datenvielfalt erfordert erweiterte generische Beschreibungsmodelle von Datenformaten und -strukturen als auch ihrer semantischen Information.

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44697087 / Bildverarbeitung)