Mixed Reality Production 4.0

Mensch-Roboter-Kollaboration in Industrie 4.0

| Redakteur: Andrea Gillhuber

Auf der CeBIT 2017 zeigt das DFKI Mixed Reality-Technologien im Kontext Mensch-Roboter-Kollaboration.
Auf der CeBIT 2017 zeigt das DFKI Mixed Reality-Technologien im Kontext Mensch-Roboter-Kollaboration. (Bild: DFKI GmbH)

Firmen zum Thema

Neue, ortsübergreifende Formen der Mensch-Roboter-Kollaboration, kurz: MRK, zeigen die Forscher des DFKI auf der CeBIT. Im Fokus stehen dabei Technologien wie Mixed Reality und Virtual Reality.

Sind sind anpassbar, trainierbar und interagieren mit den menschlichen Kollegen: Leichtbauroboter in MRK-Applikationen. Auf der CeBIT präsentieren die Forscher des Deutschen Forschungszentrums für Künstliche Intelligenz, kurz: DFKI, mit Mixed Reality Production 4.0 eine neue ortsübergreifende Form der Mensch-Roboter-Kollaboration. Mit Hilfe eines Mixed-Reality-Systems ist es möglich, Objekte in einer dreidimensionalen virtuellen Repräsentation des Kollaborations-Szenarios in Echtzeit zu manipulieren.

Was genau das bedeutet, kann man sich in Halle 6 (Stand A34 und B48) ansehen. Leichtbauroboter am Stand des Bundesministeriums für Bildung und Forschung interagieren mit ihren menschlichen und robotischen Kollegen am Stand des DFKI. Das heißt, Mitarbeiter an einem Ort lösen gemeinsam mit Robotern und Kollegen an einem anderen Ort Aufgaben; in diesem Beispiel ist es die Handhabung von Gefahrengütern. Messebesucher erleben also unmittelbar, wie Handlungen eines Menschen an einem Ort zu einer direkten robotischen Aktion an anderer Stelle führen. Ergänzt wird die Präsentation durch Displays, auf denen die Mixed-Reality-Egoperspektive des HoloLens-Trägers dargestellt wird.

Ortsübergreifende Zusammenarbeit von Mensch und Roboter

Laut DFKI läuft es wie folgt ab: Gezeigt wird wie drei baugleiche Roboter auf dem DFKI-Stand durch einen Operator auf einer Exponatsinsel auf dem benachbarten BMBF-Stand über eine HoloLens-Brille telemanipuliert werden. Ergänzt wird die Präsentation durch die Telemanipulation von zwei Robotern (Universal Robots UR, MiR 100) via Live-Schaltung in das MRK-4.0-Innovationslabor des DFKI am Standort Saarbrücken. Mit Hilfe des Mixed-Reality-Systems ist es möglich, Objekte in einer dreidimensionalen virtuellen Repräsentation des Kollaborations-Szenarios in Echtzeit zu manipulieren. Der Benutzer kann dabei mit dem Roboter interagieren, indem er auf die virtuelle Repräsentation des Zielobjekts blickt und durch eine Geste die gewünschte Aktion auslöst.

Telemanipulation mit Robotern

Zusätzlich wird die Telemanipulation in der unmittelbaren Umgebung demonstriert. Auf der Exponatsinsel am BMBF-Stand werden drei Roboter – ein ABB Yumi, ein Universal Robots UR und ein Mobilitätsroboter MiR 100 – gemeinsam mit dem Operator Aktionen ausführen. Der Operator steuert die Abläufe in einer Mixed-Reality-Umgebung (HoloLens) mit Gesten. Die Roboter führen die Befehle aus, in dem sie Objekte auf einem Tisch beziehungsweise einer Ablage greifen und bewegen, die auf dem Mobilitätsroboter montiert ist. So wird das Objekt sicher zwischen den Leichtbaurobotern transportiert. Ziel ist die Einübung des fehlerfreien Handlings der Roboter in der Remote-„Gefahrgut“-Situation.

Zu den praktischen Einsatzgebieten im Produktions- und Industrieumfeld zählen unter anderem Fernwartung, Telepräsenz, Teleproduktion beziehungsweise -operation sowie MRK-Anwendungen.

Dieser Beitrag erschien zuerst auf unserem Partnerportal Maschinenmarkt.de.

Xilinx liefert Software-Stack für videogestütztes maschinelles Lernen

FPGA-Tools für Zynq und Ultrascale

Xilinx liefert Software-Stack für videogestütztes maschinelles Lernen

15.03.17 - Xilinx dringt mit dem Software-Stack reVISION in den breiten Bereich von Vision-gestützten Machine Learning Applikationen vor. Der Stack ermöglicht einer wesentlich größeren Gruppe von Software- und Systementwicklern ohne spezifische Hardware-Expertise die einfachere und schnellere Entwicklung von intelligenten Vision-gestützten Systemen auf FPGA-Bausteinen. lesen

Roboter erlernt den Umgang mit Kleidungsstücken

Maschinelles Lernen mit Stoffen

Roboter erlernt den Umgang mit Kleidungsstücken

13.01.17 - Forschern ist die Entwicklung eines Roboters gelungen, welcher Kleidungsstücke differenzieren, sortieren und falten kann. Das von der EU geförderte Projekt ist ein weiteres Highlight im Bereich des maschinellen Lernens. lesen

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44580760 / Automatisierung)