'Neuroprosthesis' restaura palavras para o homem com paralisia

'Neuroprosthesis' restaura palavras para o homem com paralisia

Pesquisadores da UC San Francisco desenvolveram com sucesso uma “neuroprótese de fala” que permitiu a um homem com paralisia severa se comunicar em sentenças, traduzindo sinais de seu cérebro para o trato vocal diretamente em palavras que aparecem como texto em uma tela.

A conquista, que foi desenvolvida em colaboração com o primeiro participante de um ensaio de pesquisa clínica, se baseia em mais de uma década de esforços do neurocirurgião Edward Chang, MD, da UCSF, para desenvolver uma tecnologia que permite que pessoas com paralisia se comuniquem mesmo que sejam incapazes para falar por conta própria. O estudo aparece em 15 de julho no New England Journal of Medicine.

“Até onde sabemos, esta é a primeira demonstração bem-sucedida de decodificação direta de palavras inteiras da atividade cerebral de alguém que está paralisado e não pode falar”, disse Chang, a Joan and Sanford Weill Chair de Cirurgia Neurológica da UCSF, Jeanne Robertson Distinguished Professora , e autor sênior do estudo. “Ele mostra uma forte promessa de restaurar a comunicação, aproveitando o mecanismo natural da fala do cérebro.”

Todos os anos, milhares de pessoas perdem a capacidade de falar devido a um acidente vascular cerebral, acidente ou doença. Com mais desenvolvimento, a abordagem descrita neste estudo pode um dia permitir que essas pessoas se comuniquem plenamente.

Traduzindo sinais cerebrais em fala

Anteriormente, o trabalho no campo da neuroprostética de comunicação se concentrava em restaurar a comunicação por meio de abordagens baseadas na ortografia para digitar as letras uma a uma no texto. O estudo de Chang difere desses esforços de uma maneira crítica: sua equipe está traduzindo sinais destinados a controlar os músculos do sistema vocal para falar palavras, em vez de sinais para mover o braço ou a mão para permitir a digitação. Chang disse que essa abordagem explora os aspectos naturais e fluidos da fala e promete uma comunicação mais rápida e orgânica.

“Com a fala, normalmente comunicamos informações em uma taxa muito alta, até 150 ou 200 palavras por minuto”, disse ele, observando que as abordagens baseadas na ortografia usando digitar, escrever e controlar um cursor são consideravelmente mais lentas e trabalhosas. “Ir direto às palavras, como estamos fazendo aqui, tem grandes vantagens porque está mais próximo de como normalmente falamos.”

Na última década, o progresso de Chang em direção a esse objetivo foi facilitado por pacientes do Centro de Epilepsia da UCSF que estavam se submetendo a uma neurocirurgia para identificar as origens de seus ataques usando matrizes de eletrodos colocados na superfície de seus cérebros. Esses pacientes, todos com fala normal, se ofereceram para ter suas gravações cerebrais analisadas para atividades relacionadas à fala. O sucesso inicial com esses pacientes voluntários pavimentou o caminho para o teste atual em pessoas com paralisia.

Anteriormente, Chang e colegas do UCSF Weill Institute for Neurosciences mapearam os padrões de atividade cortical associados aos movimentos do trato vocal que produzem cada consoante e vogal. Para traduzir essas descobertas em reconhecimento de fala de palavras completas, David Moses, Ph.D., um engenheiro de pós-doutorado no laboratório de Chang e principal autor do novo estudo, desenvolveu novos métodos para decodificação em tempo real desses padrões, além de incorporar modelos de linguagem estatística para melhorar a precisão.

Mas o sucesso deles em decodificar a fala em participantes que conseguiam falar não garantia que a tecnologia funcionaria em uma pessoa cujo trato vocal está paralisado. “Nossos modelos precisavam aprender o mapeamento entre padrões complexos de atividade cerebral e a fala pretendida”, disse Moses. “Isso representa um grande desafio quando o participante não consegue falar.”

Além disso, a equipe não sabia se os sinais cerebrais que controlam o trato vocal ainda estariam intactos para pessoas que não são capazes de mover seus músculos vocais há muitos anos. “A melhor maneira de descobrir se isso funcionaria era experimentando”, disse Moses.

As primeiras 50 palavras

Para investigar o potencial desta tecnologia em pacientes com paralisia, Chang fez parceria com o colega Karunesh Ganguly, MD, Ph.D., professor associado de neurologia, para lançar um estudo conhecido como "BRAVO" (Restauração da Interface Cérebro-Computador do Braço e Voz). O primeiro participante do estudo é um homem de quase 30 anos que sofreu um derrame cerebral devastador há mais de 15 anos, que danificou gravemente a conexão entre seu cérebro e seu trato vocal e membros. Desde a lesão, ele teve movimentos extremamente limitados da cabeça, pescoço e membros, e se comunica usando um ponteiro preso a um boné de beisebol para cutucar as letras em uma tela.

O participante, que pediu para ser referido como BRAVO1, trabalhou com os pesquisadores para criar um vocabulário de 50 palavras que a equipe de Chang pudesse reconhecer a partir da atividade cerebral usando algoritmos avançados de computador. O vocabulário - que inclui palavras como “água”, “família” e “bom” - foi suficiente para criar centenas de frases expressando conceitos aplicáveis ​​à vida diária do BRAVO1.

Para o estudo, Chang implantou cirurgicamente um conjunto de eletrodos de alta densidade sobre o córtex motor da fala do BRAVO1. Após a recuperação total do participante, sua equipe registrou 22 horas de atividade neural nesta região do cérebro ao longo de 48 sessões e vários meses. Em cada sessão, BRAVO1 tentou dizer cada uma das 50 palavras do vocabulário muitas vezes enquanto os eletrodos gravavam sinais cerebrais de seu córtex da fala.

Tradução da tentativa de fala em texto

Para traduzir os padrões de atividade neural gravada em palavras pretendidas específicas, os dois co-autores principais de Moses, Sean Metzger e Jessie Liu, ambos estudantes de graduação em bioengenharia no Laboratório Chang, usaram modelos de rede neural personalizados, que são formas de inteligência artificial. Quando o participante tentava falar, essas redes distinguiam padrões sutis na atividade cerebral para detectar tentativas de fala e identificar quais palavras ele estava tentando dizer.

Para testar a abordagem, a equipe primeiro apresentou BRAVO1 com frases curtas construídas a partir de 50 palavras do vocabulário e pediu-lhe que tentasse repeti-las várias vezes. Enquanto ele fazia suas tentativas, as palavras foram decodificadas de sua atividade cerebral, uma a uma, em uma tela.

Em seguida, a equipe passou a fazer perguntas como "Como você está hoje?" e "Quer um pouco de água?" Como antes, a tentativa de discurso de BRAVO1 apareceu na tela. “Estou muito bem” e “Não, não estou com sede”.

Chang e Moses descobriram que o sistema era capaz de decodificar palavras da atividade cerebral a uma taxa de até 18 palavras por minuto com precisão de até 93% (mediana de 75%). Contribuindo para o sucesso estava um modelo de linguagem que Moses aplicou que implementou uma função de “autocorreção”, semelhante ao que é usado por mensagens de texto de consumidor e software de reconhecimento de voz.

Moisés caracterizou os primeiros resultados do teste como uma prova de princípio. “Ficamos emocionados ao ver a decodificação precisa de uma variedade de frases significativas”, disse ele. “Mostramos que é realmente possível facilitar a comunicação dessa forma e que há potencial para uso em ambientes de conversação.”

Olhando para o futuro, Chang e Moses disseram que vão expandir o estudo para incluir mais participantes afetados por paralisia severa e déficits de comunicação. A equipe está trabalhando atualmente para aumentar o número de palavras no vocabulário disponível, bem como melhorar a velocidade da fala.

Ambos disseram que, embora o estudo tenha enfocado um único participante e um vocabulário limitado, essas limitações não prejudicam a realização. “Este é um marco tecnológico importante para uma pessoa que não consegue se comunicar naturalmente”, disse Moses, “e demonstra o potencial dessa abordagem para dar voz a pessoas com paralisia severa e perda de fala”.