Wie maschinelles Sehen autonome Fabrikanlagen fördert

Seite: 2/2

Firmen zum Thema

Maschinelles Sehen, eingesetzt in Drohnen

Mit unbemannten Luftfahrzeugen (Umanned Aerial Vehicle, UAV), die immer mehr auf maschinelles Sehen angewiesen sind, erstreckt sich das auch bis in die Lüfte. UAVs haben sich vor allem für die Inspektion schwer erreichbarer Gebiete (z.B. Ölpipelines oder Gasanlagen) als sehr effektiv erwiesen.

Mit maschinellem Sehen erfassen und nähern sich Drohnen an ein bestimmtes Zielgebiet, damit sie es näher inspizieren können. Ist die Kamera mit der boardeigenen Flugsteuerung verbunden, können sie auch feststehende Hindernisse erkennen oder anderen Drohnen ausweichen, weshalb maschinelles Sehen auch für den Kollisionsschutz genutzt wird.

Bildergalerie

Dann ist da noch die Surveillance. Auch hier hat die wachsende Nutzung des maschinellen Sehens immense Auswirkungen. Statt Videodaten im Megabit-Bereich an den Server zu schicken, damit sie jemand begutachten kann, wird das Video vor Ort berarbeitet und ein Alarm, wenn nötig, ohne menschliches Eingreifen ausgelöst.

Die auf FPGAs laufenden Algorithmen für maschinelles Sehen werden immer genauer. Folglich können diese viel besser zwischen einem Eindringling, einem Tier oder z.B. Blätter an einem Baum unterscheiden. Betreiber können somit eine größere Anzahl von Überwachungsknoten betreuen. Überwachungskameras selbst können anderen Maschinen befehlen, auf den Alarm zu reagieren.

Die Kombination von autonomen Land- und Luftfahrzeugen wie Drohnen hat das Potenzial, den gesamten Überwachungsbetrieb zu revolutionieren. Statt festgemachter Kameras, die umgangen werden können, werden bildgebende Systeme auf fliegende Objekte montiert, die ein Gebiet während ihres Fluges ständig überwachen.

Ist der Akku fast leer, kehren die Drohnen einfach ihre Ladestation zurück und die nächsten fliegen an ihrer statt los. Fortschrittlichere Algorithmen für maschinelles Sehen erkennen potenzielle Gefahren und rufen weitere Luft- und Landfahrzeuge in das Gebiet, um die Situation genauer zu prüfen – alles ohne menschliches Eingreifen. Das gleiche gilt für die Landwirtschaft. Eine Drohne mit entsprechenden Machine-Vision-Algorithmen kann den Zustand der Feldfrüchte prüfen und den Landwirt (oder einen autonomen Traktor) in das entsprechende Gebiet leiten, sollte ein Problem auftreten, das schnelles Handeln erfordert.

Ermöglicht wurden die hier dargelegten Anwendungsmöglichkeiten durch die Fortschritte in Hard- und Software. Die Struktur der Machine-Vision-Algorithmen werden immer ausgeklügelter und können auf die neuesten FPGAs und GPUs gespeichert werden, die 8 bis 16 Kanäle gleichzeitig bewältigen und eine Bildwiederholraten von 60 Bildern pro Sekunde unterstützen. Sie können auch mit Highlevel-Software wie OpenCV gekoppelt werden.

Software-Unterstützung für maschinelles Sehen

Obwohl OpenCV ursprünglich vor allem für Forschung und Prototyping genutzt wurde, ist die Software in den letzten Jahren vermehrt in Produkten – von der Cloud bis zu Mobilgeräten – auf verschiedenen Plattformen eingesetzt worden. Die neueste Version OpenCV 3.1 wurde zwar gerade veröffentlicht, doch schon die vorige Version 3.0 wurde mit einer umfassenden Überarbeitung an heutige C++-Standards angepasst und erhielt erweiterte 3D- sowie Augmented- Reality-Fähigkeiten. Version 3.1 führt verbesserte Algorithmen für wichtige Funktionen ein, wie Kalibrierung, Optical-Flow, Bildfilterung, Segmentierung und Merkmalerkennung.

Möglichkeiten des maschinellen Sehens in der Zukunft

Maschinelles Lernen ist die logische nächste Stufe. Mit Algorithmen kann eine Computervision deterministische Analysen von Bildern und Videos liefern. Eine Schwierigkeit ist jedoch, dass Maschinenlernen andere neuronale Netzwerkansätze verwendet, um einem System beizubringen, wonach es Ausschau halten soll. Die neueste Version von OpenCV zum Beispiel unterstützt dichte neuronale Netzwerke für maschinelles Lernen.

Auch die verbesserte Leistungsfähigkeit der FPGAs und GPUs eröffnet neue Möglichkeiten für das maschinelle Lernen. Diese ist auf eine Trainingsphase angewiesen, die dem neuronalen Netzwerk verschiedene Bilder mit markierten Objekten zeigt und wird normalerweise von einem großen Serversystem in einem Labor oder in der Cloud gehandhabt. Es produziert eine Reihe von Gewichtungs- und Messdaten, die dann in dem gleichen Netzwerk angewandt werden, das im Embedded-Design durchgeführt wird.

Mit dieser Gewichtung beurteilt diese „Folgerungsmaschine“, ob es diese Objekte innerhalb der neuen Daten sieht. Die neuesten Überwachungskameras zum Beispiel nutzen ein neuronales Netzwerk aus Machine-Learning-Algorithmen, die über die üblichen Funktionen hinausgehen (wie Überwachen und Aufnahmen) und zusätzliche Videoanalysefunktionen (z.B. Überwachung eomer Ansammlung von Menschen, stereoskopische Betrachtung, Gesichtserkennung, Personenzählung und Verhaltensanalyse) anbieten. So vor Ort verarbeitete Daten können in das IoT eingespeist und in eine umfassendere Analysesoftware in der Cloud integriert werden.

Maschinelles Sehen fördert die Effizienz in Betrieben

Durch die Verbindung von maschinellem Sehen mit dem IoT entsteht eine leistungsstarke Netzwerkfähigkeit. Netzwerkknoten können intelligenter und selbständiger agieren, wenn Objekte über Kameras erkannt werden, was die Rechenlast der Zentralserver reduziert und eine stärkere Dezentralisierung der Steuerungsarchitektur erlaubt. Das wiederum ermöglicht einen effizienteren Betrieb, der mit viel weniger externen Input auskommt.

* Mark Patrick ist Mitarbeiter bei Mouser Electronics

(ID:44829333)