Bilderkennung gibt Blinden eine Orientierungshilfe

| Redakteur: Julia Schmidt

Die Softwarefirma iXpoint hat ein Assistenzsystem für Blinde entworfen. Die Bilderkennung macht den Wegverlauf auf der Grundlage unterschiedlicher Farbsättigungen hörbar.
Die Softwarefirma iXpoint hat ein Assistenzsystem für Blinde entworfen. Die Bilderkennung macht den Wegverlauf auf der Grundlage unterschiedlicher Farbsättigungen hörbar. (Bild: Harald Kucharek)

Informatikstudenten des Karlsruher Instituts für Technologie haben einen Bilderkennungsalgorithmus entwickelt, der Hindernisse identifiziert und freie Wege erkennt. Die Softwarefirma iXpoint hat damit ein Assistenzsystem für Blinde entworfen.

Die Smartphone App „Camassia“ von iXpoint erzeugt akustische Signale, die es Nutzerinnen und Nutzern ermöglichen, einem beliebigen Weg zu folgen. Es ist das erste interaktive Assistenzsystem dieser Art und funktioniert völlig unabhängig von Satellitennavigation, einem komplexen Sensorsystem oder elektronischen Karten.

Das Bedürfnis nach selbstbestimmter Mobilität stellt Blinde und sehgeschädigte Menschen auch im 21. Jahrhundert noch vor große Herausforderungen. Es gibt vielfältige technologische Ansätze, doch die meisten Betroffenen nutzen lieber bewährte Hilfsmittel wie Blindenstock oder Blindenhund. Das liegt zum einen daran, dass verfügbare Angebote oft auf sehr teurer Spezial-Hardware beruhen, zum anderen aber auch daran, dass viele Erfindungen nie den Markt erreichen, weil sie nicht über ein experimentelles Stadium hinaus entwickelt werden.

Die Technik wurde ursprünglich für ein Roboterauto entwickelt

Die Softwarefirma iXpoint hat in Zusammenarbeit mit dem Karlsruher Institut für Technologie (KIT) bewiesen, dass es auch anders geht: Sie haben ein Assistenzsystem für Blinde entwickelt, das die Kamera und die Bewegungssensoren eines handelsüblichen Smartphones nutzt. Ihre App Camassia ermöglicht es den Nutzern, Fußwege akustisch wahrzunehmen. Sie steht derzeit für iOS zur Verfügung.

Ursprünglich wurde die neue Navigationsmethode für ein Roboterauto entwickelt, mit dem die studentische Hochschulgruppe Kamaro Engineering e.V. des KIT bereits 2015 an einem internationalen Wettbewerb für autonome Roboter teilgenommen hat: „Grundlage war eine Beobachtung, die jeder selbst ganz einfach nachprüfen kann: Fußwege haben in der Regel eine geringere Farbsättigung als ihre Umgebung“, sagt der Informatikstudent Michael Fürst, der den Roboter mit dem Namen Beteigeuze damals programmierte.

Mit einem Bilderkennungsalgorithmus, der die Farbinformationen aus der Bordkamera in Steuerbefehle umsetzt, konnte Beteigeuze der Teststrecke selbständig folgen. Und das so zuverlässig, dass Kamaro den Wettbewerb mit deutlichem Abstand gewann. Der Erfolg ermutigte das Team über weitere sinnvolle Einsatzmöglichkeiten nachzudenken und in Kooperation mit der Softwarefirma iXpoint entstand so die automatische Wegführung für Blinde.

30 Einzelbilder pro Sekunde

Die Anwendung sei denkbar einfach, sagt Dr. Sebastian Ritterbusch, Projektmanager bei iXpoint, der dort die Entwicklung der App geleitet hat. „Der Nutzer hält das Smartphone in Laufrichtung und sobald die Farbeigenschaften des Weges erfasst sind, kann es losgehen. Das Smartphone muss dabei weder gerade noch besonders ruhig gehalten werden.“ Das funktioniert, weil der Algorithmus jede Sekunde 30 Einzelbilder berücksichtigt, die zuvor mithilfe des üblichen Bewegungssensors im Smartphone begradigt wurden. Auf einer horizontalen Achse vor dem Nutzer berechnet der Algorithmus daraus zuverlässig den Bereich mit der geringsten Farbsättigung und damit die wahrscheinlichste Richtung, um einem Fußweg zu folgen.

Mit einer Verzögerung von maximal einer zehntel Sekunde wird diese Information anschließend akustisch dargestellt. Standardmäßig verwendet das Assistenzsystem dabei eine Skala von 24 akustischen Halbtönen, die mittels Stereoklang, Schallintensität und Tonhöhe den Verlauf des Weges räumlich verorten. Die Form der Sonifikation, also der „Vertonung“, kann aber entsprechend der spezifischen Bedürfnisse des Nutzers angepasst werden. Optional stehen etwa weißes Rauschen oder eine auf die größte Richtungswahrscheinlichkeit reduzierte akustische Darstellung zur Verfügung.

Dass Camassia für Blinde und Sehgeschädigte so nützlich und handhabbar geworden ist, verdankt das Assistenzsystem auch dem Informatiker Gerhard Jaworek vom Studienzentrum für Sehgeschädigte (SZS) am KIT. Er ist selbst blind und hat die Entwicklung von Anfang an im Selbstversuch begleitet: „So konnte ich darauf achten, das ein Produkt entsteht, dass wirklich hilft und nicht an der Zielgruppe vorbei entwickelt wird.“ Zwar würde die App seinen Blindenstock im Alltag keinesfalls ersetzen, aber es sei eine sehr willkommene Ergänzung. Ihn freut dabei vor allem die interaktive Einsatzmöglichkeit an jedem Ort. So könne er jetzt im Park auch einen Nebenpfad einschlagen oder sich in Innenräumen orientieren.

Das kognitive Internet der Dinge – Einstieg in eine neue Ära

Das kognitive Internet der Dinge – Einstieg in eine neue Ära

27.11.17 - Wo steht das Internet of Things heute? Wie werden KI und selbstlernende Algorithmen kommende Technologien prägen? Wo stehen wir hinsichtlich Connectivity, Security oder auch in der agilen Entwicklung? In seiner Keynote zum ESE-Kongress 2017 zeigt Steffen Hartmaier, IT-Architekt bei IBM, was mit sogenannten kognitiven Themen alles möglich wird. lesen

Kommentar zu diesem Artikel abgeben
Hallo. Als Großvater mit einem Blinden Enkel, bin ich naturgemäß an jeder Hilfe interessiert, die...  lesen
posted am 01.10.2018 um 19:31 von Unregistriert


Mitdiskutieren
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45203426 / Technologie & Forschung)