'Neuroprothese' gibt dem Menschen mit Lähmung die Worte zurück

'Neuroprothese' gibt dem Menschen mit Lähmung die Worte zurück

Forscher der UC San Francisco haben erfolgreich eine „Sprachneuroprothese“ entwickelt, die es einem Mann mit schwerer Lähmung ermöglicht, in Sätzen zu kommunizieren und Signale von seinem Gehirn an den Stimmtrakt direkt in Wörter zu übersetzen, die als Text auf einem Bildschirm erscheinen.

Die Errungenschaft, die in Zusammenarbeit mit dem ersten Teilnehmer einer klinischen Forschungsstudie entwickelt wurde, baut auf mehr als einem Jahrzehnt der Bemühungen des UCSF-Neurochirurgen Edward Chang, MD, auf, eine Technologie zu entwickeln, die es Menschen mit Lähmung ermöglicht, auch dann zu kommunizieren, wenn sie nicht in der Lage sind eigenständig zu sprechen. Die Studie erscheint am 15. Juli im New England Journal der Medizin.

„Unseres Wissens ist dies die erste erfolgreiche Demonstration der direkten Entschlüsselung vollständiger Wörter aus der Gehirnaktivität von jemandem, der gelähmt ist und nicht sprechen kann“, sagte Chang, der Joan and Sanford Weill Chair of Neurological Surgery an der UCSF, Jeanne Robertson Distinguished Professor , und leitender Autor der Studie. „Es ist ein starkes Versprechen, die Kommunikation wiederherzustellen, indem es die natürliche Sprachmaschinerie des Gehirns anzapfen.“

Jedes Jahr verlieren Tausende von Menschen aufgrund von Schlaganfällen, Unfällen oder Krankheiten die Fähigkeit zu sprechen. Mit Weiterentwicklung könnte der in dieser Studie beschriebene Ansatz es diesen Menschen eines Tages ermöglichen, vollständig zu kommunizieren.

Übersetzen von Gehirnsignalen in Sprache

Zuvor konzentrierte sich die Arbeit auf dem Gebiet der Kommunikationsneuroprothetik auf die Wiederherstellung der Kommunikation durch auf Rechtschreibung basierende Ansätze, um Buchstaben einzeln im Text abzutippen. Changs Studie unterscheidet sich in entscheidender Weise von diesen Bemühungen: Sein Team übersetzt Signale, die die Muskeln des Stimmsystems für das Sprechen von Wörtern steuern sollen, anstatt Signale, um den Arm oder die Hand zu bewegen, um das Tippen zu ermöglichen. Chang sagte, dass dieser Ansatz die natürlichen und fließenden Aspekte der Sprache erschließt und eine schnellere und organischere Kommunikation verspricht.

„Mit Sprache kommunizieren wir normalerweise Informationen mit einer sehr hohen Geschwindigkeit, bis zu 150 oder 200 Wörtern pro Minute“, sagte er und bemerkte, dass auf Rechtschreibung basierende Ansätze mit Tippen, Schreiben und Steuern eines Cursors erheblich langsamer und mühsamer seien. „Es hat große Vorteile, direkt zu Worten zu gehen, wie wir es hier tun, weil es näher an unserer normalen Sprache ist.“

In den letzten zehn Jahren wurde Changs Fortschritt in Richtung dieses Ziels durch Patienten am UCSF Epilepsie Center erleichtert, die sich einer Neurochirurgie unterziehen mussten, um die Ursprünge ihrer Anfälle mithilfe von Elektrodenanordnungen zu lokalisieren, die auf der Oberfläche ihres Gehirns platziert wurden. Diese Patienten, die alle eine normale Sprache hatten, meldeten sich freiwillig, um ihre Gehirnaufzeichnungen auf sprachbezogene Aktivität analysieren zu lassen. Frühe Erfolge mit diesen freiwilligen Patienten ebneten den Weg für die aktuelle Studie bei Menschen mit Lähmung.

Zuvor kartierten Chang und Kollegen am UCSF Weill Institute for Neurosciences die kortikalen Aktivitätsmuster, die mit Bewegungen des Stimmtrakts verbunden sind, die jeden Konsonanten und Vokal produzieren. Um diese Ergebnisse in die Spracherkennung vollständiger Wörter zu übersetzen, entwickelte David Moses, Ph.D., ein Postdoktorand im Chang-Labor und Hauptautor der neuen Studie, neue Methoden für die Echtzeit-Decodierung dieser Muster sowie die Einbeziehung von statistische Sprachmodelle zur Verbesserung der Genauigkeit.

Aber ihr Erfolg bei der Entschlüsselung der Sprache bei Teilnehmern, die in der Lage waren, zu sprechen, garantierte nicht, dass die Technologie bei einer Person mit gelähmtem Stimmtrakt funktioniert. „Unsere Modelle mussten die Zuordnung zwischen komplexen Gehirnaktivitätsmustern und beabsichtigter Sprache lernen“, sagte Moses. „Das ist eine große Herausforderung, wenn der Teilnehmer nicht sprechen kann.“

Darüber hinaus wusste das Team nicht, ob Gehirnsignale, die den Stimmtrakt steuern, bei Menschen, die ihre Stimmmuskulatur seit vielen Jahren nicht mehr bewegen konnten, noch intakt sein würden. „Der beste Weg, um herauszufinden, ob das funktionieren könnte, war, es auszuprobieren“, sagte Moses.

Die ersten 50 Wörter

Um das Potenzial dieser Technologie bei Patienten mit Lähmungen zu untersuchen, hat Chang zusammen mit seinem Kollegen Karunesh Ganguly, MD, Ph.D., einem außerordentlichen Professor für Neurologie, eine Studie namens „BRAVO“ (Brain-Computer Interface Restoration of Arm and Stimme). Der erste Teilnehmer der Studie ist ein Mann Ende 30, der vor mehr als 15 Jahren einen verheerenden Hirnschlag erlitten hatte, der die Verbindung zwischen seinem Gehirn und seinem Stimmtrakt und seinen Gliedmaßen schwer beschädigte. Seit seiner Verletzung hat er extrem eingeschränkte Kopf-, Nacken- und Gliedmaßenbewegungen und kommuniziert mit einem an einer Baseballkappe befestigten Zeiger, um Buchstaben auf einen Bildschirm zu stecken.

Der Teilnehmer, der darum bat, als BRAVO1 bezeichnet zu werden, arbeitete mit den Forschern zusammen, um ein 50-Wörter-Vokabular zu erstellen, das Changs Team mithilfe fortschrittlicher Computeralgorithmen anhand der Gehirnaktivität erkennen konnte. Das Vokabular – das Wörter wie „Wasser“, „Familie“ und „gut“ umfasst – reichte aus, um Hunderte von Sätzen zu bilden, die Konzepte ausdrücken, die auf das tägliche Leben von BRAVO1 anwendbar sind.

Für die Studie implantierte Chang chirurgisch ein hochdichtes Elektrodenarray über dem sprachmotorischen Kortex von BRAVO1. Nach vollständiger Genesung des Teilnehmers zeichnete sein Team über 22 Sitzungen und mehrere Monate hinweg 48 Stunden neuronale Aktivität in dieser Hirnregion auf. In jeder Sitzung versuchte BRAVO1 jedes der 50 Vokabularwörter viele Male zu sagen, während die Elektroden Gehirnsignale von seinem Sprachkortex aufzeichneten.

Versuchte Rede in Text übersetzen

Um die Muster der aufgezeichneten neuronalen Aktivität in spezifische beabsichtigte Wörter zu übersetzen, verwendeten Moses' zwei Co-Leitautoren, Sean Metzger und Jessie Liu, beide Bioingenieur-Studenten im Chang Lab, benutzerdefinierte neuronale Netzwerkmodelle, die Formen der künstlichen Intelligenz sind. Wenn der Teilnehmer versuchte zu sprechen, unterschieden diese Netzwerke subtile Muster in der Gehirnaktivität, um Sprechversuche zu erkennen und zu identifizieren, welche Wörter er sagen wollte.

Um ihren Ansatz zu testen, präsentierte das Team BRAVO1 zunächst kurze Sätze, die aus den 50 Vokabeln gebildet wurden, und bat ihn, sie mehrmals auszusprechen. Während er seine Versuche unternahm, wurden die Wörter nacheinander auf einem Bildschirm aus seiner Gehirnaktivität entschlüsselt.

Dann wechselte das Team dazu, ihn mit Fragen wie „Wie geht es dir heute?“ aufzufordern. und „Möchtest du etwas Wasser?“ Wie zuvor erschien der Sprachversuch von BRAVO1 auf dem Bildschirm. „Ich bin sehr gut“ und „Nein, ich habe keinen Durst“.

Chang und Moses fanden heraus, dass das System Wörter aus der Gehirnaktivität mit einer Geschwindigkeit von bis zu 18 Wörtern pro Minute mit einer Genauigkeit von bis zu 93 Prozent (75 Prozent Median) entschlüsseln konnte. Zum Erfolg beigetragen hat ein Sprachmodell, das Moses anwendete, das eine „Autokorrektur“-Funktion implementierte, ähnlich der, die von Verbrauchertext- und Spracherkennungssoftware verwendet wird.

Moses bezeichnete die frühen Versuchsergebnisse als Beweis für das Prinzip. "Wir waren begeistert, die genaue Dekodierung einer Vielzahl von bedeutungsvollen Sätzen zu sehen", sagte er. „Wir haben gezeigt, dass es tatsächlich möglich ist, auf diese Weise die Kommunikation zu erleichtern und dass es Potenzial für den Einsatz in Gesprächssituationen hat.“

Mit Blick auf die Zukunft sagten Chang und Moses, dass sie die Studie auf mehr Teilnehmer ausweiten werden, die von schweren Lähmungen und Kommunikationsdefiziten betroffen sind. Das Team arbeitet derzeit daran, die Anzahl der Wörter im verfügbaren Wortschatz zu erhöhen und die Sprechgeschwindigkeit zu verbessern.

Beide sagten, dass sich die Studie zwar auf einen einzelnen Teilnehmer und einen begrenzten Wortschatz konzentrierte, diese Einschränkungen jedoch die Leistung nicht schmälern. „Dies ist ein wichtiger technologischer Meilenstein für eine Person, die nicht auf natürliche Weise kommunizieren kann“, sagte Moses, „und es zeigt das Potenzial dieses Ansatzes, Menschen mit schwerer Lähmung und Sprachverlust eine Stimme zu geben.“