Neurosprachprothese Sprechen durch Vorstellen: Menschen erhalten ihre Sprache zurück

Redakteur: Dipl.-Ing. (FH) Hendrik Härter

Wissenschaftlern ist es gelungen, vorgestellte Sprache über ein Brain-Computer-Interface und Sprachsynthese akustisch hörbar zu machen. Entstanden ist eine Neurosprachprothese, die neuronale Prozesse im Gehirn in hörbare Sprache umwandelt.

Firmen zum Thema

Mit Sprache kommunizieren wir mit unserer Umwelt: Eine Neurosprachprothese wandelt gedachte Wörter in hörbare Sprache um.
Mit Sprache kommunizieren wir mit unserer Umwelt: Eine Neurosprachprothese wandelt gedachte Wörter in hörbare Sprache um.
(Bild: Gerd Altmann / Pixabay )

Was mit dem Brain-Computer-Interface möglich ist, zeigen Entwicklungen wie der Roboterarm, der allein durch Gedanken gesteuert werden kann. Doch wie sieht es mit Sprache aus, die allein aus der Vorstellung zu gesprochenen Worten werden?

Diesen Forschungserfolg konnten jetzt Wissenschaftler der Universität Bremen für sich verbuchen. Die Informatiker des Cognitive System Lab haben im Rahmen eines internationalen Projekts eine sogenannte Neurosprachprothese realisiert. Hinter diesem Begriff verbirgt sich die Möglichkeit, vorgestellte Sprache des Probanden akustisch hörbar zu machen.

Neurosprachprothese: vom gedachten Wort in hörbare Sprache

Seit mehreren Jahren arbeiten das Cognitive Systems Lab (CSL) der Universität Bremen, das Department of Neurosurgery an der niederländischen Maastricht Universität und das ASPEN Lab an der Virginia Commonwealth Universität (USA) an einer Neurosprachprothese. Das Ziel: Sprachbezogene neuronale Prozesse im Gehirn direkt in hörbare Sprache umzusetzen.

Dieses Ziel ist jetzt erreicht worden: „Wir haben es geschafft, dass unsere Versuchspersonen sich reden hören, obwohl sie sich das Sprechen nur vorstellen“, freut sich Professorin Tanja Schultz, die Leiterin des CSL.

„Die Gehirnstromsignale von freiwilligen Probanden, die sich vorstellen zu sprechen, werden durch unsere Neurosprachprothese direkt in eine hörbare Ausgabe überführt – und zwar in Echtzeit ohne wahrnehmbare Verzögerung.“

Sprachsynthese und Brain-Computer-Interface

Die Neurosprachprothese basiert auf einem Closed-Loop-System. Diese Technik verbindet moderne Sprachsynthese mit einem Brain-Computer-Interface (BCI). Entwickelt wurde das System von Miguel Angrick am CSL.Als Eingabe erhält es die neuronalen Signale des Nutzers, die sich vorstellen zu sprechen. Es transformiert sie mittels Methoden des maschinellen Lernens praktisch zeitgleich in Sprache und gibt diese hörbar als Rückmeldung aus. „Dadurch schließt sich für diese der Kreis vom Vorstellen des Sprechens und dem Hören ihrer Sprache“, sagt Angrick.

Studie mit freiwilliger Epilepsiepatientin

Brain-Computer-Interface: Mit der Neurosprachprothese wird vorgestellte Sprache akustisch hörbar.
Brain-Computer-Interface: Mit der Neurosprachprothese wird vorgestellte Sprache akustisch hörbar.
(Bild: CSL/Universität Bremen)

Die veröffentlichte Arbeit basiert auf einer Studie mit einer freiwilligen Epilepsiepatientin, der zu medizinischen Untersuchungen Tiefenelektroden implantiert wurden und die sich zur klinischen Überwachung im Krankenhaus aufhielt. Im ersten Schritt las die Patientin Texte vor, aus denen das Closed-Loop-System auf Basis von maschinellen Lernverfahren die Korrespondenz zwischen Sprache und neuronaler Aktivität lernte. „Im zweiten Schritt wurde der Lernvorgang mit geflüsterter und mit vorgestellter Sprache wiederholt“, erläutert Miguel Angrick. „Dabei erzeugte das Closed-Loop-System synthetisierte Sprache. Obwohl das System die Korrespondenzen ausschließlich auf hörbarer Sprache gelernt hatte, wird auch bei geflüsterter und bei vorgestellter Sprache eine hörbare Ausgabe erzeugt.“

Das lasse den Schluss zu, dass die zugrundeliegenden Sprachprozesse im Gehirn für hörbar produzierte Sprache vergleichbar sind zu denen für geflüsterte und vorgestellte Sprache. „Sprachneuroprothetik zielt darauf ab, Personen, die aufgrund körperlicher oder neurologischer Beeinträchtigungen nicht sprechen können, einen natürlichen Kommunikationskanal zu bieten“, erläutert Professorin Tanja Schultz den Hintergrund für die intensiven Forschungsaktivitäten auf diesem Gebiet, bei denen das Cognitive Systems Lab der Universität Bremen eine weltweit beachtete Rolle spielt.

„Die Echtzeitsynthese akustischer Sprache direkt aus gemessener neuronaler Aktivität könnte natürliche Gespräche ermöglichen und die Lebensqualität von Menschen deutlich verbessern, deren Kommunikationsmöglichkeiten stark eingeschränkt sind.“

(ID:47711518)