Os cientistas traduzem as ondas cerebrais do homem com paralisia em palavras

Cérebro feito de várias engrenagens

  • A anartria, que é a perda da capacidade de falar, pode ter várias causas, como acidente vascular cerebral ou esclerose lateral amiotrófica.
  • Pessoas com anartria geralmente mantêm sua habilidade linguística, mas a paralisia pode impedi-los de usar recursos tecnológicos para se comunicar.
  • Os neurocientistas usaram o aprendizado de máquina para traduzir em palavras e frases atividade elétrica na parte do cérebro responsável pela fala.

Pela primeira vez, os cientistas conseguiram traduzir em texto a atividade cerebral de uma pessoa com paralisia que não consegue falar.

Neurocientistas implantaram um conjunto de eletrodos do tamanho de um cartão de crédito no córtex sensório-motor do homem de 36 anos, que é a parte do cérebro que controla a articulação da fala.

Os cientistas, liderados pela Universidade da Califórnia, San Francisco (UCSF), usaram “algoritmos de aprendizado profundo” para treinar modelos de computador para reconhecer e classificar palavras de padrões na atividade cerebral do participante.

Eles pediram ao homem que pensasse em dizer as palavras que apresentavam a ele em uma tela.

Além dos modelos de aprendizado profundo, eles usaram um “modelo de linguagem natural”, que é um programa que prevê a próxima palavra em uma frase com base nas palavras anteriores.

“Este resultado é realmente um marco para restaurar a fala de pessoas que não conseguem se comunicar devido à paralisia”, disse David Moses, engenheiro de pós-doutorado na UCSF e principal autor do estudo, em uma entrevista ao San Francisco Chronicle.

“Existem outras abordagens, mas esta é a primeira prova de que alguém pode tentar falar e que podemos traduzir o que eles estavam tentando dizer a partir dessa atividade cerebral.”

Perda de fala inteligível

O participante, que tinha 36 anos no início do estudo, teve um derrame no tronco encefálico aos 20 anos que resultou em paralisia severa e perda da fala inteligível, conhecida como anartria.

Outras causas de anartria incluem esclerose lateral amiotrófica, uma condição neurológica rara que afeta principalmente os nervos responsáveis ​​pelo movimento voluntário.

O homem do estudo conseguia vocalizar grunhidos e gemidos, mas não conseguia articular palavras, apesar de ter funções cognitivas saudáveis.

Usando leves movimentos de sua cabeça, ele pode controlar um dispositivo de digitação baseado em computador para se comunicar. No entanto, sua velocidade de digitação com este dispositivo é de apenas cinco palavras corretas por minuto.

Após 48 sessões de treinamento com a nova tecnologia de “leitura da mente” ao longo de 81 semanas, ele conseguiu gerar cerca de 15 palavras por minuto, com uma taxa de erro de 26%.

Os cientistas, que relatam suas descobertas no The New England Journal of Medicine, dizem que as tecnologias de decodificação de voz são geralmente consideradas utilizáveis ​​se tiverem uma taxa de erro de palavra abaixo de 30%.

“Este estudo representa um avanço transformacional no campo das interfaces cérebro-computador”, disse o Dr. Lee H. Schwamm, que preside o comitê consultivo da American Stroke Association e não esteve envolvido na nova pesquisa.

“Embora a intervenção seja bastante invasiva, exigindo cirurgia cerebral para implantar uma faixa de gravação na superfície do cérebro, e a precisão da conversão 'pensamento-para-fala' fosse modesta, o paradigma é inovador”, disse Dr. Schwamm ao "Detonic.shop" .

Dr. Schwamm é vice-presidente de atendimento virtual no Mass General Brigham e professor de neurologia na Harvard Medical School em Boston, MA.

Ele disse que, embora a pesquisa anterior tenha usado uma interface semelhante para traduzir pensamentos sobre o movimento no controle de um braço robótico, é um salto ainda maior para decifrar palavras.

“O que é mais surpreendente é que a área do cérebro para o implante do sensor, o córtex sensório-motor, não desempenha um papel importante na compreensão da linguagem ou na geração de palavras”, acrescentou.

A área está envolvida no movimento dos lábios e da garganta para produzir os sons da fala, então o próximo passo pode ser ver se ela também pode ajudar nas pessoas com afasia, que é a causa mais comum de distúrbios incapacitantes de linguagem após um derrame, disse o Dr. Schwamm.

Dados de atividade cerebral

Em 48 sessões de treinamento, o participante tentou produzir palavras específicas a partir de um conjunto de 50 palavras.

Em cada tentativa, ele foi apresentado a uma dessas palavras em uma tela. Quando a palavra ficou verde após um atraso de 2 segundos, ele tentou dizer a palavra.

Ao longo dessas sessões, os pesquisadores coletaram 22 horas de dados de atividade cerebral, que alimentaram o algoritmo de aprendizado profundo.

Em duas sessões finais adicionais, o homem tentou usar as palavras previamente treinadas para gerar frases como "Estou com sede" e "Preciso dos meus óculos".

Em cada tentativa, o participante era apresentado à frase e tentava gerar as palavras o mais rápido possível pensando em dizê-las.

O algoritmo de aprendizado profundo e o modelo de linguagem permitiram que seus pensamentos fossem decodificados sem erros em mais da metade das tentativas de frase.

Tempo preciso de palavras

Um estudo anterior do mesmo grupo envolveu voluntários saudáveis.

No entanto, um dos maiores desafios para os pesquisadores que tentam criar um programa de aprendizado profundo que possa traduzir a atividade cerebral de uma pessoa com paralisia é o tempo preciso de suas palavras.

Isso ocorre porque o algoritmo não tem uma maneira óbvia de distinguir a atividade elétrica que surge da tentativa de articular palavras, da atividade cerebral de fundo.

Após o treinamento, no entanto, o novo algoritmo conseguiu identificar corretamente 98% das tentativas do participante de produzir palavras individuais.

Outro desafio é processar os padrões de atividade cerebral com rapidez suficiente para traduzir em tempo real.

Um estudo publicado em 2019 pelo Laboratório de Sistemas Cognitivos da Universidade de Bremen, na Alemanha, também usou o aprendizado profundo para decodificar a atividade cerebral, mas não em tempo real.

“O novo estudo realmente decodifica a atividade cerebral em tempo real, mas acredito que não seja a maior conquista”, disse um de seus autores, o Prof. Christian Herff, que não esteve envolvido na nova pesquisa.

Ele disse ao MNT que algumas equipes haviam obtido posteriormente a tradução em tempo real, incluindo o Grupo de Interface Cérebro-Computador na Universidade de Maastricht em 2020, onde ele agora trabalha.

“O grande passo [do novo estudo] é que eles apresentam seus resultados em um paciente que na verdade não consegue mais falar. Antes, todos os estudos eram realizados com voluntários que ainda falavam ”, disse o Prof. Herff.

Detonic