Hoffnung bei Sprachlähmung 01.04.2025, 11:00 Uhr

Fast wie Magie: Forscher wandeln Gedanken in Sprache um

Forschende entwickeln eine Methode, um Gedanken in Sprache umzuwandeln – und zwar nahezu in Echtzeit dank KI und Gehirn-Computer-Schnittstelle.

Forscher verbinden Anns Hirnimplantat mit dem Sprachsynthesizer-Computer

Forscher verbinden Anns Hirnimplantat mit dem Sprachsynthesizer-Computer. Die Patientin konnte damit wieder sprechen.

Foto: Noah Berger

Ein US-amerikanisches Forschungsteam hat eine Technologie entwickelt, die Gedanken von Menschen mit Sprachlähmung nahezu in Echtzeit in hörbare Sprache umwandelt. Grundlage ist eine Kombination aus Gehirnsignalen und Künstlicher Intelligenz. Ziel ist es, Betroffenen eine natürlichere Kommunikation zu ermöglichen.

Gedanken werden hörbar

Wenn der Körper nicht mehr mitmacht, schweigt oft auch die Sprache. Für Menschen mit schweren Lähmungen bedeutet das: Isolation. Ein interdisziplinäres Team der University of California in Berkeley und San Francisco will das ändern. Mithilfe einer neuen Gehirn-Computer-Schnittstelle (Brain-Computer Interface, kurz BCI) gelingt es ihnen, Gedanken in gesprochene Sprache zu übertragen – fast in Echtzeit.

Die Technik basiert auf neuronalen Daten, also elektrischen Signalen im Gehirn, die beim Versuch zu sprechen entstehen. Künstliche Intelligenz (KI) übersetzt diese Muster direkt in akustische Sprache. Ein solches System kann Menschen mit Sprachverlust neue Wege der Kommunikation eröffnen.

Stellenangebote im Bereich Medizintechnik, Biotechnik

Medizintechnik, Biotechnik Jobs
B. Braun Melsungen AG-Firmenlogo
Project Manager (w/m/d) Pre-Development B. Braun Melsungen AG
Melsungen Zum Job 
B. Braun Melsungen AG-Firmenlogo
R&D Manager (w/m/d) für die Entwicklung von medizinischen Kunststoffeinmalartikeln B. Braun Melsungen AG
Melsungen Zum Job 
Graz University of Technology, Faculty of Technical Chemistry, Chemical and Process Engineering and Biotechnology, Institute of Process and Particle Engineering-Firmenlogo
Professorship for Particle Engineering and Solids Processing Graz University of Technology, Faculty of Technical Chemistry, Chemical and Process Engineering and Biotechnology, Institute of Process and Particle Engineering
Graz, Austria Zum Job 
Hochschule Reutlingen-Firmenlogo
W2-PROFESSUR (m/w/x) Biomimetische Materialsysteme Hochschule Reutlingen
Reutlingen Zum Job 
Deutsche Akkreditierungsstelle GmbH (DAkkS)-Firmenlogo
Expertin / Experte für Kalibrierlaboratorien (w/m/d) - DIN EN/ISO IEC 17025 Deutsche Akkreditierungsstelle GmbH (DAkkS)
Berlin, Home Office Zum Job 
PARI Pharma GmbH-Firmenlogo
Entwicklungsingenieur (m/w/d) Medizintechnik PARI Pharma GmbH
Gräfelfing bei München Zum Job 
Max-Planck-Institut für Kognitions- und Neurowissenschaften-Firmenlogo
HF-Ingenieur*in (m/w/d) als technische*r oder wissenschaftliche*r Mitarbeiter*in Max-Planck-Institut für Kognitions- und Neurowissenschaften
Leipzig Zum Job 
B. Braun Melsungen AG-Firmenlogo
Head of (w/m/d) Portfolio Development Team Pain Therapy B. Braun Melsungen AG
Melsungen Zum Job 
Hochschule Bielefeld (HSBI)-Firmenlogo
W2-Professur Elektrotechnische Gebiete der Biomedizintechnik Fachbereich Ingenieurwissenschaften und Mathematik (IuM) Hochschule Bielefeld (HSBI)
Bielefeld Zum Job 
PARI Pharma GmbH-Firmenlogo
Projektleiter (m/w/d) Medizintechnik eFlow Plattform PARI Pharma GmbH
Gräfelfing bei München Zum Job 

Was ist neu an dieser Methode?

Das Besondere an der aktuellen Entwicklung ist die Geschwindigkeit, mit der das System Sprache erzeugt. Frühere Ansätze benötigten mehrere Sekunden, um einen gesprochenen Satz zu rekonstruieren. Jetzt dauert es nur noch etwa eine Sekunde vom Gedanken bis zur hörbaren Stimme.

„Unser Streaming-Ansatz bringt die gleiche schnelle Sprachdecodierungskapazität von Geräten wie Alexa und Siri in Neuroprothesen ein“, erklärt Gopala Anumanchipalli, Assistenzprofessor für Elektrotechnik und Informatik an der UC Berkeley.

Die Methode arbeitet ähnlich wie Sprachassistenten, allerdings mit einem entscheidenden Unterschied: Die Eingabe erfolgt nicht per Mikrofon, sondern direkt über Gehirnsignale. Diese stammen aus dem motorischen Kortex – dem Bereich des Gehirns, der Bewegungen wie das Sprechen steuert.

So funktioniert das Gedanken-zu-Sprache-System

Die Versuchsperson „Ann“, die bereits an früheren Studien teilnahm, konnte durch eine hohe Rückenmarksverletzung nicht mehr sprechen. Trotzdem erzeugt ihr Gehirn beim Versuch, einen Satz zu artikulieren, typische Aktivitätsmuster.

Die Forschenden zeigten ihr auf einem Bildschirm einen Satz wie: „Hey, wie geht es dir?“ und baten sie, diesen stumm zu sprechen. Das System zeichnete dabei die neuronalen Signale auf und trainierte ein KI-Modell, um diese mit dem angestrebten Satz abzugleichen. Ein vortrainiertes Text-zu-Sprache-System erzeugte anschließend die akustische Sprache.

Dabei verwendete das Team Aufnahmen von Anns Stimme aus der Zeit vor ihrer Verletzung. So klang die synthetisierte Stimme besonders authentisch.

Hier wird Ihnen ein externer Inhalt von youtube.com angezeigt.
Mit der Nutzung des Inhalts stimmen Sie der Datenschutzerklärung von youtube.com zu.

Ein System für verschiedene Schnittstellen

Ein großer Vorteil der neuen Methode: Sie ist flexibel einsetzbar. Die Forschenden testeten das System mit unterschiedlichen Sensoren – von Elektrodenarrays, die direkt auf der Gehirnoberfläche liegen, bis zu sogenannten sEMG-Sensoren. Letztere messen Muskelaktivität im Gesicht und kommen ohne operative Eingriffe aus.

„Wir haben gezeigt, dass diese Technik nicht auf einen bestimmten Gerätetyp beschränkt ist“, betont Kaylo Littlejohn, Mitautor der Studie. Entscheidend sei vor allem ein klares Signal – dann könne der gleiche Algorithmus auf verschiedenen Plattformen genutzt werden.

Auch unbekannte Wörter werden erkannt

Ein weiterer Test überprüfte, ob das System auch Wörter erkennt, die es während des Trainings nicht gelernt hatte. Dazu nutzten die Forschenden Begriffe aus dem NATO-Alphabet wie „Bravo“ oder „Charlie“. Das System konnte diese zuverlässig in Sprache umwandeln.

„Das zeigt, dass unser Modell tatsächlich die grundlegenden Bausteine von Sprache versteht“, sagt Anumanchipalli. Es erkennt also nicht nur Muster, sondern kann neue Wörter korrekt generieren.

Die Bedeutung für die Betroffenen

Für Menschen wie Ann ist das mehr als eine technische Spielerei. Sie berichtete, dass sich das neue System natürlicher anfühle als frühere Methoden. „Ihre eigene Stimme nahezu in Echtzeit zu hören, verstärkte ihr Gefühl der Verkörperung“, sagt Anumanchipalli.

Die Technologie erlaubt es ihr, sich gezielter auszudrücken – mit Intonation, Pausen und Tonfall. Ziel der Forschenden ist es nun, auch diese feinen sprachlichen Nuancen besser aus den neuronalen Daten zu lesen.

Wie geht es weiter?

Die Ergebnisse sind vielversprechend, doch die Arbeit ist noch nicht abgeschlossen. Das Forschungsteam plant, den Algorithmus weiter zu verbessern. Künftig soll er auch Emotionen wie Freude oder Aufregung an der Sprachmelodie erkennbar machen.

„Wir versuchen, paralinguistische Merkmale wie Tonhöhe oder Lautstärke direkt aus der Gehirnaktivität zu rekonstruieren“, erklärt Littlejohn.

Langfristig soll die Technologie Menschen mit Sprachverlust ein möglichst natürliches Sprechen ermöglichen – so, als würden sie selbst sprechen.

Hier geht es zur Originalmeldung

Ein Beitrag von:

  • Dominik Hochwarth

    Redakteur beim VDI Verlag. Nach dem Studium absolvierte er eine Ausbildung zum Online-Redakteur, es folgten ein Volontariat und jeweils 10 Jahre als Webtexter für eine Internetagentur und einen Onlineshop. Seit September 2022 schreibt er für ingenieur.de.

Zu unseren Newslettern anmelden

Das Wichtigste immer im Blick: Mit unseren beiden Newslettern verpassen Sie keine News mehr aus der schönen neuen Technikwelt und erhalten Karrieretipps rund um Jobsuche & Bewerbung. Sie begeistert ein Thema mehr als das andere? Dann wählen Sie einfach Ihren kostenfreien Favoriten.