Estilo de vida
29/08/2023 às 14:00•2 min de leitura
Já faz algum tempo que cientistas vêm desenvolvendo dispositivos que são capazes de “ler nossa mente” para realizar diferentes funções. Desde ajudar a movimentar membros até permitir que pessoas que perderam a fala, possam falar novamente.
E este último caso ganhou um importante avanço, que, no futuro, poderá fazer com que pessoas com esclerose lateral amiotrófica (ELA) possam se comunicar com mais facilidade.
(Fonte: Universidade Brown)
Pat Bennett foi diagnosticada com ELA em 2012. Desde então, ele começou a perder a capacidade de falar de forma inteligível. Seu cérebro consegue formular as instruções necessárias para se comunicar, porém seus músculos não conseguem mais executar os comandos.
Hoje, com 68 anos, ela é voluntária de um estudo que pode mudar isso. Bennett conseguiu gerar uma taxa de 62 palavras por minuto utilizando uma interface cérebro-computador (BCI). Esse número impressiona por ser mais de três vezes mais rápido do que os registros anteriores para a comunicação assistida por esse tipo de tecnologia.
O BrainGate, que é o implante experimental utilizado, foi colocado em duas regiões separadas do córtex cerebral de Bennett, relacionadas à fala. Enquanto ela pensava nas palavras, um algoritmo de inteligência artificial recebia e decodificava as informações produzidas pelo cérebro, que ia aprendendo a distinguir a fala das outras atividades cerebrais.
Foram necessárias aproximadamente 25 sessões de quatro horas de treinamento para que o algoritmo pudesse reconhecer padrões de atividade cerebral associados a fonemas específicos.
Em um cenário de 125 mil palavras, a taxa de erro foi de quase 24%. Embora seja um valor alto, ele é significativamente mais preciso do que outros, quando comparado com a velocidade da fala gerada. Porém, Leigh Hochberg, neurologista da Universidade Brown e líder do estudo, lembra que o BrainGate ainda é um protótipo e não um dispositivo pronto para uso diário.
(Fonte: GettyImages)
Outro estudo similar envolveu uma paciente que sofreu um AVC no tronco cerebral. Ela também perdeu a capacidade de falar e foi submetida a um estudo semelhante, com o uso de deep learning, que avaliava a atividade cerebral enquanto a paciente tentava falar frases silenciosamente.
Nesse caso, o resultado obtido depois de duas semanas de treinamento, foi uma taxa média de 78 palavras por minuto e 25% de erro, durante o processamento. Quando o BCI que ela utilizou traduzia o pensamento para uma fala sintetizada, o modelo teve uma taxa de erro de 54,4% para um vocabulário de 1.024 palavras e de 8,2% para um vocabulário de 119 palavras.
Assim como o caso de Bennett, trata-se de um estudo em desenvolvimento, que ainda precisa ser validado em outros pacientes com graus variados de paralisia. Porém, um diferencial está no uso de uma voz sintetizada que simula a voz original da paciente. Isso foi possível, ao colocar o modelo usado para o processamento para interpretar um vídeo dela antes da lesão.
A paciente disse que “o simples fato de ouvir uma voz semelhante à minha é emocionante. Ser capaz de falar em voz alta é muito importante. Nos primeiros 7 anos após meu AVC, tudo que usei foi um papel timbrado”.