SoC und heterogene Computing-Architektur

Deep Learning mit HSA macht Machine Vision sicherer

| Autor / Redakteur: Lars Asplund, Frederik Bruhn * / Gerd Kucera

Der künstliche visuelle Cortex

Wie funktioniert ein solcher Prozess im Detail? Die ersten Stufen der Informationsverarbeitung beziehen sich ausschließlich auf jedes einzelne Pixel. Die umfangreiche Datenanalyse wird deshalb auch auf einem FPGA ausgeführt. Farbkameras von Machine-Vision-Systemen arbeiten mit dem RGB-Farbraum – genau wie das menschliche Auge. Dieses Format ist für exakte Bildberechnungen jedoch nicht geeignet. Deshalb müssen die RGB-Werte zunächst in den HSI-Farbraum (Farbton, Sättigung und Intensität) überführt werden.

Als nächstes ist das Bild zu entzerren, um Verzeichnungen durch die Linsen zu kompensieren. Anschließend erfolgt der Stereoabgleich zwischen den beiden Kameras. Diese immer gleichen Schritte werden auf dem FPGA ausgeführt, der den x86-Hauptprozessor unterstützt. Alle folgenden Berechnungen dienen dem Verstehen und Interpretieren der Bildinhalte und sind applikationsspezifisch. Diese sehr anspruchsvollen Aufgaben lassen sich deshalb am besten auf der integrierten und hochflexiblen x86er-Prozessorplattform ausführen.

Um nachvollziehen zu können wie komplex solche Aufgaben zu programmieren sind, muss man wissen, dass die Interpretation von Bildinhalten ausgesprochen rechenintensiv ist. Bisher war der menschliche visuelle Cortex der Computertechnologie deutlich überlegen. Mittlerweile hat sich das jedoch durch die technologischen Fortschritte geändert.

Ein hervorragendes Beispiel dafür ist der AlphaGo-Computer von Google. Er hat es als erste Maschine geschafft, den weltbesten Go-Spieler zu besiegen. Dies gelang ihm dank neuronaler Netzwerk-Algorithmen. Sie sind allerdings nicht neu, sondern waren schon in den 90er Jahren eine vielversprechende Methode für künstliche Intelligenz. Die Fortschritte kamen allerdings durch die limitierte Performance zu einem Stillstand. Genauer gesagt lag es zum einen an mangelnder Rechenleistung und zum anderen an Problemen mit Netzwerken, die zu viele versteckte Layer hatten.

Heute verfügen wir jedoch über weitaus mehr Rechenleistung und neueste Methoden können deshalb sogar noch viel mehr Schichten für den Aufbau neuronaler Netzwerke nutzen. Der Begriff Deep Learning steht heute deshalb für ein neuronales Netzwerk mit deutlich mehr Schichten als früher. Dank der heterogenen Architektur können moderne SoCs Deep-Learning-Algorithmen zudem sehr effizient nutzen – ein Beispiel hierfür liefert das Deep Learning Framework ‚Caffe‘ von Berkley.

Die x86er-Technologie ist für intelligente stereoskopische Machine-Vision-Systeme zudem auch interessant, weil bereits sehr ausgereifte und optimierte Streaming- und Vektorbefehle verfügbar sind. Zudem gibt es mit unterschiedlichen Betriebssystemen, Algorithmen und Treibern ein sehr umfangreiches und ausgereiftes Ökosystem. Die Shared-Virtual-Memory-Initiative (SVM) sowie die HSA Foundation stellen weitere, die x86-Systeme ergänzende Technologien zur Verfügung, die den Durchsatz an Rohdaten erhöhen, was für intelligente Machine Vision entscheidend ist.

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 44355336 / Bildverarbeitung)