Eine Künstliche Intelligenz könnte stumme Menschen zum Sprechen bringen

Ein Team von Wissenschaftlern aus den USA hat eine Künstliche Intelligenz darauf trainiert, die Gedanken zu entschlüsseln, die entstehen, wenn Menschen sprechen. Die Software konnte daraufhin die Gehirnsignale in Texte übersetzen. Diese Technik könnte genutzt werden, um sprachunfähigen Menschen eine Stimme zurückzugeben.

Von Michael Förtsch

Mit einem Computer die Gedanken eines Menschen zu lesen, das ist bisher vor allem in Science-Fiction-Romanen machbar. Jedoch ist das Konzept, mittels Elektroden die elektrischen Signale im Gehirn abzupassen, mitzuschreiben und von einer Software interpretieren zu lassen, durchaus realistisch. Wissenschaftler haben es querschnittgelähmten Menschen auf diese Weise schon möglich macht, mit Gedankenkraft einen Computer zu bedienen oder auch Videospiele zu spielen. Forschern der University of California wollen jedoch noch mehr. Sie arbeiten daran, Gedankenimpulse in eindeutige Texte und Sprache umzuwandeln. Das soll es Menschen erlauben, wieder zu kommunizieren, die ihre Sprach- und Ausdrucksfähigkeiten verloren haben.

„Wir sind noch längst nicht da, wo wir hin müssten, aber wir glauben, das könnte die Basis für eine Sprachprothese sein“, sagt Joseph Makin von der University of California, San Francisco. Woran er und seine Kollegen arbeiten, das ist nicht nur eine Methode, um die elektrischen Signale des Gehirns abzulesen, sondern sie auch zu übersetzen – und zwar in einen „natürlichem Sprach-Rhythmus.“. Dafür haben sie eine Künstliche Intelligenz entwickelt, die darauf trainiert wird, Muster in der Hirnaktivität zu finden und mit Worten zu verknüpfen.

Wie die Wissenschaftler im Fachmagazin Nature Neuroscience schreiben, haben sie dafür vier Personen rekrutiert, die aufrunde von epileptischen Anfällen bereits bis zu 250 Elektroden in ihrem Gehirn implantiert haben. Sie ließen sie mehrfach 50 einfache Testsätze wie „Tina Turner ist eine Pop-Sängern.“ laut aussprechen. Gleichzeitig zeichneten sie ihre Sprache und ihre neuronalen Aktivitäten mit. Diese Daten wurden dann als Grundlage für einen Maschinen-Lern-Prozess genutzt. Eine künstliches Neuronales Netz sollte dabei Korrelationen zwischen den aufblitzenden Gehirnaktivitäten und den einzelnen Worten ausmachen.

Bis die Technik genutzt werden kann, wird es noch dauern

Durch mehrfaches Training und Abgleichen mit den Sprach- und Aktivitätsaufzeichnungen, wurde das System stetig treffsicherer und konnte die aufblitzenden Signale feiner und klarer ausmachen, die für Worte, Pausen oder auch Satzenden verantwortlich sind. Ein zweites neuronales Netz nutzte diese Daten dann, um die Hirnsignale nachzubilden und einen passenden Text zu generieren. Bereits nach wenigen Wiederholungen dieser Prozesse sollen die verschalteten Künstlichen Intelligenzen bei einem Probanden in lediglich drei Prozent der Fälle einzelne Worte falsch identifiziert und wiedergegeben haben. Dabei variierte die Fehlerquote jedoch leicht von Person zu Person.

Die Forscher stellten bei ihren Versuchen gleichzeitig fest, dass sie das Trainingsergebnis der Künstlichen Intelligenzen von einer Person nutzen konnten, um damit die Gedanken einer anderen Person zu interpretieren – einfach weil die generellen Vorgänge zur Bildung von Sprache im Gehirn ähnlich sind. Die Gesamtdauer des Trainings, um eine genauere Identifikation von Worten zu ermöglichen, war dann entsprechend kürzer. Die Forscher glauben, dass daher eine Art Hirn-zu-Text-Grundmodel erstellt werden könnte, das lediglich auf den jeweiligen Menschen fein angepasst werden muss.

Dass die Technik bald zum Einsatz kommt, daran glauben die Wissenschaftler jedoch erstmals nicht. Denn bisher konnten sie dem System nur ein begrenztes Vokabular mitgeben – nur 250 Worte. Außerhalb der genutzten Testsätze werde es zumindest bislang sehr schwierig, die Gehirnaktivität zielsicher zu interpretieren. Fehler würden dann viel häufiger werden. Aber generell sei „eine Ausweitung des Wortschatzes und eine größere Flexibilität der Satzstrukturen“ möglich und „schon ein paar hundert Wörter könnten für einen Patienten, der sonst gar nicht sprechen kann, sehr hilfreich sein“, sagen die Wissenschaftler.

Einen möglichen Einsatz der Technik sehen die Forscher beispielsweise bei Menschen, die ihr Sprachvermögen durch Unfälle oder Krankheiten verloren haben. Diese könnten dann durch eine an die Künstliche Intelligenz angekoppelte Sprachsynthese wieder eine Stimme erhalten. Existieren von einer Person zudem Aufzeichnungen ihrer Stimme, könnte sie sogar mittels Deep-Voice-Technologie ihre ganz eigene Stimme zurückbekommen, die sie vor ihrem Sprachverlust hatte.

Teaser-Bild: Getty Images / Jackie Niam

2 Like