Brain-Computer-Interface Computer erkennt Bewegungen aus Hirnsignalen

Redakteur: Dipl.-Ing. (FH) Hendrik Härter

Forschern der TU Graz ist es erstmals gelungen, aus menschlichen Hirnsignalen die Absicht einer kontinuierlichen Bewegung auszulesen. Damit können Querschnittsgelähmte einen Roboterarm mittels ihrer Gedanken steuern.

Firmen zum Thema

Forscher um Prof. Gernot Müller-Putz haben einen Roboterarm entwickelt, den Querschnittsgelähmte mit ihren Gedanken steuern können.
Forscher um Prof. Gernot Müller-Putz haben einen Roboterarm entwickelt, den Querschnittsgelähmte mit ihren Gedanken steuern können.
(Bild: TU Graz)

Ein sogenanntes Brain-Computer-Interface (BCI) verknüpft das menschliche Gehirn mit einer Maschine. Das klingt sehr nach Science-Fiction. So konnte im Jahr 2019 ein Querschnittsgelähmter über ein BCI einen Rollstuhl steuern.

Dieses Mal waren es Forscher der TU Graz: Ihnen gelang es erstmals, einen Roboterarm rein durch Gedanken in Echtzeit zu steuern. Dabei half eine EEG-Kappe. Möglich wurde das durch das Dekodieren kontinuierlicher Bewegungsintention aus den Hirnsignalen – das war bislang unmöglich.

Dabei untersuchten die Forscher zunächst eine Vielzahl an Bewegungsparametern wie Position, Geschwindigkeit aber auch Distanz. Aus der neuronalen Aktivität haben sie dann die Korrelate extrahiert. „Wesentlich hierbei ist der Beitrag der Augen“, sagt Gernot Müller-Putz. Er leitet das Institut für Neurotechnologie der TU Graz

Augenbewegungen aus dem EEG herausrechnen

„Es ist wichtig, dass Anwender die Augen verwenden dürfen, um die Bewegungsbahn des robotischen Armens zu verfolgen.“ Allerdings erzeugen Augenbewegungen und Lidschläge eigene elektrische Signale, sogenannte okulare Artefakte im EEG. „Diese Artefakte verzerren das EEG-Signal. Sie müssen daher in Echtzeit rausgerechnet werden.

Es ist aber essentiell, dass die Auge-Hand-Koordination stattfinden kann und so einen Beitrag zur Dekodierung der zielgerichteten Bewegungswünsche liefert“, erklärt Müller-Putz. Mit anderen Worten: Die Sehinformationen tragen dazu bei, die Bewegungsintention zu erfassen. Die Störsignale des Auges selbst aber müssen aus der elektrischen Aktivität herausgerechnet werden.

System erkennt Fehler selbstständig

Wesentlich ist außerdem, dass eines der von den Forschern entwickelten BCIs erkennen kann, ob man mit einer Bewegung starten möchte – es erkennt den Start einer zielgerichteten Bewegung. Darüber hinaus erkennt und korrigiert ein weiteres BCI des Forschungsteams Fehler, also nicht erwünschte Bewegungen des Roboterarms; ein weiterer Puzzlestein für eine natürlichere Prothesensteuerung.

„Die Fehlerantwort des Gehirns lässt sich aus dem EEG ablesen. Das BCI erkennt, dass die ausgeführte Bewegung nicht mit der Intention der Person übereinstimmt. Es stoppt die Bewegung des Roboterarms oder setzt diese zurück an den Anfang“, so Müller-Putz. Im Projekt wurde die Fehlererkennung mehrfach in Tests mit querschnittgelähmten Personen erfolgreich getestet.

Video: Gedanken steuern einen Roboterarm

Prothese nicht nur sehen, sondern spüren

Erstmals ist es gelungen, einen robotischen Arm rein durch Gedanken in Echtzeit zu steuern, nicht-invasiv mittels EEG-Kappe. Hier im Bild: Der Versuchssetting. Vorne der robotische Arm, der vom Probanden (hinten) gesteuert wird.
Erstmals ist es gelungen, einen robotischen Arm rein durch Gedanken in Echtzeit zu steuern, nicht-invasiv mittels EEG-Kappe. Hier im Bild: Der Versuchssetting. Vorne der robotische Arm, der vom Probanden (hinten) gesteuert wird.
(Bild: TU Graz)

Ebenfalls erfolgreich waren die TU Graz-Forscher beim sogenannten kinästhetischen Feedback. „Die Testpersonen sehen die Bewegungen der Prothese nicht nur, sie spüren sie auch“, freut sich Müller-Putz. Technisch wurde das mithilfe von Vibrationsgebern möglich. Diese kleben an der Haut am Schulterblatt und fahren die Bewegungen des Roboterarms in fein fließenden Vibrationen nach.

Theoretisch sei es damit komplett Querschnittsgelähmten möglich, Bewegungen nachzuempfinden. „Allerdings müssen wir uns hier eine Anwendung im Bereich des Nackens oder Halses überlegen“, spricht Müller-Putz zukünftige Ziele an. Allen voran möchten die Forschenden das Dekodieren einer Bewegung aus visuellen, intentionalen und bewegungsempfindenden Informationen verbessern, dabei Fehler erkennen und alle vier BCI-Systeme in einem „Vierfach-BCI-System“ vereinen.

Biografie Gernot Müller-Putz

Gernot Müller-Putz leitet das Institut für Neurotechnologie der TU Graz. Der Wissenschaftler beschäftigt sich seit 23 Jahren mit der BCI-Forschung. Er ist Träger eines ERC Consolidator Grants und langjähriger Organisator der Grazer Brain-Compute-Interface-Konferenz.

2017 verlieh ihm die Deutschsprachige Medizinische Gesellschaft für Paraplegiplogie den Ludwig Guttmann-Preis. Im Mai 2018 wurde er in den Vorstand der International Brain-Computer-Interface-Society gewählt, dessen Gründungsmitglied er auch ist.

Im Mai 2019 erhielt er den Steirischen Wissenschaftspreis des Landes Steiermark „Digitalisierung in der Wissenschaft". Er ist auch Gründungsmitglied und wissenschaftlicher Co-Direktor der NeuroIS Society.

(ID:47696072)