Tecnologia pioneira ajuda homem com esclerose lateral amiotrófica (ELA) a falar em tempo real
Pesquisadores da Universidade da Califórnia em Davis (UC Davis) desenvolveram uma interface cérebro1-computador experimental que promete restaurar a voz de pessoas que perderam a capacidade de falar devido a condições neurológicas.
Em um novo estudo publicado na revista Nature, os pesquisadores demonstram como essa nova tecnologia pode traduzir instantaneamente a atividade cerebral em voz enquanto uma pessoa tenta falar, criando efetivamente um trato vocal digital.
O sistema permitiu que o participante do estudo, portador de esclerose2 lateral amiotrófica (ELA), falasse com sua família por meio de um computador em tempo real, mudasse sua entonação e cantasse melodias simples.
“Traduzir a atividade neural em texto, que é como nossa interface cérebro1-computador de fala anterior funciona, é semelhante a enviar mensagens de texto. É uma grande melhoria em comparação com as tecnologias assistivas padrão, mas ainda leva a conversas atrasadas. Em comparação, essa nova síntese de voz em tempo real é mais como uma chamada de voz”, disse Sergey Stavisky, autor sênior3 do artigo e professor assistente no Departamento de Cirurgia Neurológica da UC Davis. Stavisky co-dirige o Laboratório de Neuropróteses da UC Davis.
“Com a síntese instantânea de voz, os usuários de neuropróteses poderão se envolver mais em uma conversa. Por exemplo, eles podem interromper, e as pessoas têm menos probabilidade de interrompê-los acidentalmente”, disse Stavisky.
O homem está inscrito no ensaio clínico BrainGate2 na UC Davis Health. Sua capacidade de se comunicar por meio de um computador foi possibilitada por uma interface cérebro1-computador (ICC) experimental. Ela consiste em quatro conjuntos de microeletrodos implantados cirurgicamente na região do cérebro1 responsável pela produção da fala.
Esses dispositivos registram a atividade dos neurônios4 no cérebro1 e a enviam para computadores que interpretam os sinais5 para reconstruir a voz.
Leia sobre "Doenças nervosas degenerativas6" e "Doenças neuromusculares".
“A principal barreira para sintetizar a voz em tempo real era não saber exatamente quando e como a pessoa com perda de fala estava tentando falar”, disse Maitreyee Wairagkar, primeira autora do estudo e cientista do projeto no Laboratório de Neuropróteses da UC Davis.
“Nossos algoritmos mapeiam a atividade neural para os sons pretendidos a cada momento. Isso possibilita sintetizar nuances na fala e dá ao participante controle sobre a cadência de sua voz na ICC.”
A interface cérebro1-computador foi capaz de traduzir os sinais5 neurais do participante do estudo em fala audível reproduzida por um alto-falante muito rapidamente, em um quadragésimo de segundo. Esse pequeno atraso é semelhante ao atraso que uma pessoa experimenta quando fala e ouve o som da própria voz.
A tecnologia também permitiu que o participante dissesse novas palavras (palavras ainda não conhecidas pelo sistema) e fizesse interjeições. Ele foi capaz de modular a entonação da voz gerada pelo computador para fazer uma pergunta ou enfatizar palavras específicas em uma frase.
O participante também avançou para variar o tom cantando melodias simples e curtas.
Sua voz sintetizada pela ICC era frequentemente inteligível: os ouvintes conseguiam entender quase 60% das palavras sintetizadas corretamente (em oposição a 4% quando ele não estava usando a ICC).
O processo de traduzir instantaneamente a atividade cerebral em fala sintetizada é auxiliado por algoritmos avançados de inteligência artificial.
Os algoritmos do novo sistema foram treinados com dados coletados enquanto o participante era solicitado a tentar pronunciar frases mostradas a ele em uma tela de computador. Isso forneceu aos pesquisadores informações sobre o que ele estava tentando dizer.
A atividade neural mostrou os padrões de disparo de centenas de neurônios4. Os pesquisadores alinharam esses padrões com os sons da fala que o participante estava tentando produzir naquele momento. Isso ajudou o algoritmo a aprender a reconstruir com precisão a voz do participante apenas a partir de seus sinais5 neurais.
“Nossa voz faz parte do que nos torna quem somos. Perder a capacidade de falar é devastador para pessoas que vivem com condições neurológicas”, disse David Brandman, co-diretor do Laboratório de Neuropróteses da UC Davis e neurocirurgião que realizou o implante7 no participante.
“Os resultados desta pesquisa trazem esperança para pessoas que querem falar, mas não conseguem. Mostramos como um homem paralisado foi capacitado a falar com uma versão sintetizada de sua voz. Esse tipo de tecnologia pode ser transformadora para pessoas que vivem com paralisia8.”
Brandman é professor assistente no Departamento de Cirurgia Neurológica e o pesquisador principal responsável pelo estudo clínico BrainGate2.
Os pesquisadores observam que, embora as descobertas sejam promissoras, as neuropróteses cérebro1-voz ainda estão em fase inicial. Uma limitação importante é que a pesquisa foi realizada com um único participante com ELA. Será crucial replicar esses resultados com mais participantes, incluindo aqueles com perda de fala por outras causas, como acidente vascular cerebral9.
Veja também sobre "Esclerose2 lateral amiotrófica", "O que é disartria10" e "Fisioterapia11 neurofuncional".
Confira a seguir o resumo do artigo publicado.
Uma neuroprótese de síntese instantânea de voz
Interfaces cérebro1-computador (ICCs) têm o potencial de restaurar a comunicação de pessoas que perderam a capacidade de falar devido a uma doença ou lesão12 neurológica. As ICCs têm sido usadas para traduzir os correlatos neurais da tentativa de fala em texto. No entanto, a comunicação por texto falha em capturar as nuances da fala humana, como a prosódia e a audição imediata da própria voz.
Neste estudo, demonstrou-se uma neuroprótese cérebro1-voz que sintetiza instantaneamente a voz com feedback de áudio em circuito fechado, decodificando a atividade neural de 256 microeletrodos implantados no giro pré-central ventral de um homem com esclerose2 lateral amiotrófica e disartria10 grave. Superou-se o desafio da falta de fala embasada para treinar o decodificador neural e conseguiu-se sintetizar sua voz com precisão.
Além do conteúdo fonêmico, os pesquisadores também conseguiram decodificar características paralinguísticas da atividade intracortical, permitindo que o participante modulasse sua voz sintetizada pela ICC em tempo real para mudar a entonação e cantar melodias curtas.
Esses resultados demonstram a viabilidade de permitir que pessoas com paralisia8 falem de forma inteligível e expressiva por meio de uma ICC.
Fontes:
Nature, publicação em 12 junho de 2025.
UC Davis Health, notícia publicada em 11 de junho de 2025.