Alternative zur Toucheingabe Drei Bedienkonzepte für die künftige Interaktion

Redakteur: Dipl.-Ing. (FH) Hendrik Härter

Beim eigenen Smartphone sind wir es gewohnt, doch wie hygienisch ist es, einen öffentlichen Touchscreen zu bedienen? Alternativen versprechen Gesten- und Sprachsteuerung sowie Blickverfolgung.

Firmen zum Thema

Eine Kamera erfasst den Blickverlauf. Über die Augenbewegung könnten sich künftig Eingaben an einem Bildschirm vornehmen lassen.
Eine Kamera erfasst den Blickverlauf. Über die Augenbewegung könnten sich künftig Eingaben an einem Bildschirm vornehmen lassen.
(Bild: Intel)

Touchscreens haben innerhalb kurzer Zeit unseren Alltag erobert. Den Siegeszug der berührempfindlichen elektronischen Geräte machte Apple mit seinen Smartphone. Schnell breitete sich die Möglichkeit aus, mit einem oder mehreren Fingern nicht nur das Smartphone, sondern auch Automaten oder gar eine Maschine zu steuern. Möglich machte das ein kapazitives Touchdisplay. Doch am vermeintlichen Gipfel der Bedienführung kam ein Virus. Auf einmal war es gefährlich, Oberflächen zu berühren. Jedoch gibt es Alternativen, um mit der Maschine (Computer) zu interagieren.

Dabei spielt die berührungslose Eingabe wohl eine entscheidende Rolle. Es macht auch einen Unterschied, ob jemand sein privates Smartphone bedient ober einen öffentlichen Automaten. Im öffentlichen Raum einen Touchscreen zu bedienen ist für viele Menschen unhygienisch. Ein Grund mehr, warum sich berührungsfreie Bedienoberflächen in den nächsten Jahren durchsetzen werden.

Berührungsfrei per Gesten bedienen

Die Gestensteuerung gehört zu den wichtigsten technischen Trends, deren Einsatz sich während der Pandemie beschleunigt hat. Besonders wirksam ist sie dann, wenn sie mit haptischer Technik kombiniert wird. So lassen sich physische Interaktionen nachstellen. Hersteller Intel bietet hier sein System Ultraleap.

Die Idee dahinter: Touchscreens werden durch Benutzeroberflächen ersetzt, die mithilfe von Handbewegungen bedient werden können. Dahinter steckt die Mid-Air-Haptics-Technik von Ultraleap. Sie nutzt Ultraschall, um den Sinneseindruck einer Berührung zu erzeugen. Sensoren ermöglichen diesen simulierten Sinneseindruck. Die Kombination aus Handbewegung und einer fühlbaren Rückmeldung bewirkt, dass der Benutzer den Inhalt des Bildschirms mit der Hand steuern kann und gleichzeitig individuell ein zum Bildschirminhalt synchronisiertes Feedback erhält.

Immer im Blick: Augenbewegungen auswerten

Neben der Gestensteuerung gewinnt die Sprachsteuerung an Bedeutung. Möglich sind sprach-aktivierte interaktive Digital-Signage-Anwendungen beispielsweise in einem Selbstbedienungskiosk. Intel hat das Sodaclick-Voice-System zusammen mit einer Kamera entwickelt. Algorithmen für maschinelles Lernen, mehrsprachige Spracherkennung sowie Sichtdetektion. Das Ergebnis ist eine berührungsfreie Kommunikation in Echtzeit.

Neben Gesten und Sprachsteuerung gibt es eine dritte Möglichkeit: die Blickverfolgung. Eine Kamera erfasst den Blickverlauf. Das lässt sich beispielsweise im Handel einsetzen, um das Interesse und Verhalten der Kunden einzuschätzen. Das NUIA-System des Intel Partners 4tiitoo nutzt eine Technik, um den Blick zu erfassen. Damit lassen sich Arbeitsprozesse optimieren. Über die Augenbewegung lassen sich Eingaben am Bildschirm steuern und unnötige Mausbewegungen werden vermieden. Allerdings befindet sich die Anwendung noch in der Entwicklungsphase.

Noch in der Entwicklung

Die vorgestellten Eingabemöglichkeiten befinden sich noch in der Entwicklung. Doch dank der KI verbessert sich beispielsweise die Spracheingabe und störende Hintergrundgeräusche werden reduziert oder gleich eliminiert. Welches Bedienkonzept sich schlussendlich durchsetzen wird, ist von der Akzeptanz der Anwender abhängig.

(ID:47127699)