AR-Entwicklung

Optimierung von Augmented-Reality-Lösungen mit SoCs

Seite: 2/3

Firma zum Thema

Im medizinischen Bereich haben Smart Glasses das Potenzial zur Anlage und Übermittlung von medizinischen Berichten und detaillierten Dokumentationen von Befunden oder Verletzungen. Dies ermöglicht die bessere Versorgung sowohl am Ort der Notfallhilfe, als auch später im Operationssaal. Ein besonders aussagekräftiges Beispiel für aktuelle AR-Anwendungen ist die Auslieferung von Paketen.

Ein großer US-Zustelldienst setzt bereits Smart Glasses ein, mit denen sich der Barcode auf dem Versand-Etikett lesen lässt. Sobald der Code eingescannt ist, kommuniziert die intelligente Datenbrille über eine passende WIFI-Infrastruktur mit dem Server des Zustelldienstes und ermittelt so die Lieferadresse des Pakets. Mit dieser Adresseninformation weisen die Smart Glasses den Weg zu einer geeigneten Zwischenlagerung vor dem Versand.

Bildergalerie

Unabhängig von der Applikation und dem jeweiligen Einsatzfall erfordert die Implementierung eines AR-Systems die Beachtung diverser, oft gegenläufiger Anforderungen, einschließlich dessen Performance und Sicherheit, Leistungsfähigkeit und Zukunftsfestigkeit. Sie alle müssen gründlich abgewogen werden, damit die Entwickler eine optimale Lösung für den Einsatz des AR-Systems bereitstellen können.

Die Implementierung von AR-Systemen

Komplexe AR-Systeme erfordern oft die Fähigkeit zur Interaktion mit Prozessdaten von mehreren Kamera-Sensoren, um die visuelle Umgebung angemessen zu erfassen und verstehen. Solche Sensoren operieren vielfach auch in den nicht sichtbaren Bereichen des elektromagnetischen Spektrums (EM), etwa im Infrarot oder nahen Infrarot. Auch Sensoren mit Informationen, die nicht unmittelbar aus dem EM-Spektrum stammen, werden hier eingesetzt, etwa zur Erfassung von mechanischen Bewegungen oder Rotationen.

Dazu zählen MEMS-Accelerometer und Gyroskope, neben Empfängern für Satellitendaten wie dem Global Navigation Satellite System (GNSS). Embedded Vision Systeme, die eine Sensor-Fusion aus den Messwerten mehrerer unterschiedlicher Sensortypen einsetzen, werden allgemein als heterogene Sensor-Fusion Systeme bezeichnet. AR-Systeme erfordern außerdem hohe Frame-Raten und die Fähigkeit, eine Echtzeit-Analyse in jedem Frame durchzuführen, um die darin enthaltene Information zu extrahieren. Die Bereitstellung der Verarbeitungskapazität für diese Anforderungen wird zum entscheidenden Faktor bei der Auswahl der geeigneten Komponenten.

Bild 3 zeigt, wie ein All Programmable Zynq-7000 SoC oder ein Zynq UltraScale+ MPSoC von Xilinx eingesetzt wird, um den Verarbeitungskern eines AR-Systems zu implementieren. Diese Bausteine sind bereits selbst heterogene Verarbeitungssysteme, die aus einer Kombination von ARM-Prozessor und hoch leistungsfähiger programmierbarer Logik bestehen. Zynq UltraScale+ MPSoC, die nächste Generation des Zynq-7000 SoC, enthält zusätzlich eine ARM Mali-400 GPU. Ausgewählte Typen dieser Bausteinfamilie enthalten außerdem einen stabilen Video-Encoder, der den H.265- und HVEC Standard unterstützt.

Alle diese Bausteine ermöglichen dem Entwickler die Segmentierung der Systemarchitektur mit optimalem Einsatz der Prozessoren zur Implementierung der Echtzeit-Analyse. Dies geht über die traditionellen Aufgaben des Prozessors weit hinaus. Die programmmierbare Logik lässt sich zur Implementierung der Sensor-Schnittstellen und zur Verarbeitung der von ihnen gelieferten Daten einsetzen. Das bietet mehrere Vorteile:

  • Parallele Implementierung von mehreren Bildbearbeitungs-Pipelines, wie von der Applikation gefordert.
  • Universelle (any to any) Konnektivität, die Fähigkeit zur Definition der Verbindung mit allen Sensoren, Kommunikationsprotokollen oder Display-Standards, für große Flexibilität und zukünftige Upgrade-Pfade.

(ID:44709424)