Ann Johnson, 30 anos, ficou paralisada em 2005, depois de sofrer um golpe do tronco cerebral. Em 2022, ela foi a terceira pessoa a participar de um julgamento conduzido por pesquisadores da UC Berkeley, da UC São Francisco e da Universidade da Califórnia. Crédito: Noah Berger 2023/Universidade da Califórnia Berkeley Ela conseguiu ouvir sua voz novamente depois de participar de um ensaio clínico liderado por pesquisadores da UC Berkeley e da UC San Francisco. Ela ouviu sua voz pela primeira vez depois de participar de um estudo clínico liderado por pesquisadores da UC Berkeley e da UC San Francisco. Ann Johnson era professora de matemática e educadora física em uma escola canadense, onde também ensinou vôlei e basquete. Johnson acabara de fazer um discurso de 15 minutos para o marido em seu casamento um ano antes. Ela perdeu a capacidade de se mover ou falar após o derrame. Era impossível para ela emitir um som quando tentou conversar. A boca dela não se movia. Pesquisadores da UC Berkeley e da UC São Francisco estavam conduzindo um julgamento para tentar restaurar a capacidade das pessoas de se comunicar usando uma interface de computador cerebral. Esse momento ocorreu durante um estudo. A tecnologia, dizem os pesquisadores, tem um enorme potencial para tornar a força de trabalho e o mundo mais acessíveis a pessoas como Johnson.
Modelando o processo de fala
Em 2015, Gopala Anumanchipalli começou a trabalhar como pesquisador de pós -doutorado com Edward Chang, um neurocirurgião da UCSF, para entender como o discurso acontece no cérebro. Eles queriam saber o que nos permite deixar de pensar em algo para realmente dizer isso em voz alta.
“Conseguimos ter uma boa noção da parte do cérebro que é realmente responsável pela produção da fala”, disse Anumanchipalli, agora professor assistente de engenharia elétrica e ciências da computação na UC Berkeley.
A partir daí, eles descobriram como modelar computacionalmente o processo para que pudessem sintetizar da atividade cerebral o que alguém está tentando dizer.
Essencialmente, eles derrubaram como ir à fonte do conhecimento-o cérebro-e depois ignorar o que está quebrado-a conexão com o corpo-e restaura o que está perdido. Nesse caso, eles estão usando uma neuroprótese que está lendo a parte do cérebro que processa a fala.
Eles iniciaram o ensaio clínico em 2020 e Johnson ingressou como o terceiro participante em 2022.
Embora a população de pessoas que perca sua capacidade de falar dessa maneira seja relativamente pequena, dizem os pesquisadores, eles estão entre os mais vulneráveis em termos de qualidade de vida.
Desde seu derrame, Johnson recuperou algum controle muscular. Johnson recuperou algum controle muscular desde seu derrame. Agora ela pode rir, chorar e sorrir. É um processo lento; Ela só pode escrever cerca de 14 palavras por minuto, em comparação com o discurso de conversação, mais próximo de 160 palavras por minuto. Ela não pode escrever rápido o suficiente; Seu discurso de conversação é mais como 160 palavras por minutos. Então, quando se ouviu falar pelo primeiro em quase duas décadas, isso a fez se sentir muito emocional. Johnson, que estava sentado ao lado do marido na época do julgamento, perguntou: “O que você acha da minha voz artificial?” Conte -me sobre você. “Estou me sentindo bem hoje.”
Ph.D. Kaylo Littlejohn, Ph.D. O aluno e co-líder do estudo, com Anumanchipalli, Chang, lembra daquele momento. Ele era pesquisador do grupo de discursos de Berkeley, parte do Berkeley AI Research Lab. Como tal, ele foi responsável pela modelagem da IA do estudo, treinando os decodificadores para traduzir com precisão a atividade mental de Johnson. Um implante conectado ao computador foi colocado no topo do cérebro de Johnson, que processa a fala. Atuou como um decodificador de pensamento. Eles então mostraram algumas frases e pediram que ela as repetisse. Crédito: Universidade da Califórnia, Berkeley Littlejohn disse que o dispositivo, que registra sinais neurais, ainda é capaz de sentir esses sinais, mesmo que ela não possa falar por causa de sua paralisia. Essa ferramenta de decodificação neural transmite os sinais para o modelo de IA no computador, o que os traduz. O modelo é capaz de traduzir com precisão as palavras que estão sendo ditas. No entanto, a IA não pode ler os pensamentos de alguém. Só funciona quando alguém está fazendo um esforço conjunto para dizer alguma coisa.
“Não queríamos ler sua mente”, disse Anumanchipalli. Queríamos que ela tivesse a liberdade de decidir o que faria. Temos decodificadores em algumas sessões quando ela não está fazendo nada. Não faz nada, pois ela não tenta se comunicar. Só ouvimos sons ou comandos quando ela está tentando se comunicar. Quão realista é isso? É exatamente como Johnson em som e aparência? A resposta, pelo menos por enquanto, está em algum lugar no meio. A resposta, pelo menos neste momento, está em algum lugar.
Neuropróteses plug-and-play
Quando você assiste a um vídeo de Johnson conversando com a interface do cérebro-computador de quando ela ingressou no ensaio clínico, você pode ouvir a voz dela reunindo palavras em tons de canto, mas não é perfeita. A voz do avatar é adiada em oito segundos entre quando recebe o comando e o tempo que o usuário fala. O decodificador em 2023 usou a tecnologia de tenda de sequência, o que significava que o usuário precisava concluir uma frase para o modelo antes que pudesse traduzir as palavras em som. No estudo de 2023, o avatar moveu a boca para imitar o discurso de Johnson e fez pequenos movimentos para imitar suas expressões faciais, como um sorriso e a testa. O avatar não foi usado no estudo realizado em março, mas os pesquisadores estão confiantes de que a arquitetura de streaming funcionaria para o avatar. Em um futuro próximo, porém, Anumanchipalli disse que é possível que possa haver avatares fotorrealistas em 3D.
Anumanchipalli disse que isso pode acontecer em apenas alguns anos, mas a pesquisa precisa acontecer em várias áreas. Anumanchipalli disse que não há modelos prontos disponíveis para uso hoje. O desenvolvimento da tecnologia e da ciência também é necessário para trazer isso. “
‘Deficiências não precisam nos impedir ou nos desacelerar’
Em fevereiro de 2024, Johnson removeu seu implante por um motivo não relacionado ao julgamento. Ela continua entrando em contato com a equipe. Ela envia e -mails eloquentes usando sua tecnologia atual sobre o que sentiu durante o julgamento e o que prefere ver em iterações futuras.
Ela gostava de ouvir sua própria voz, ela disse a eles, e a abordagem de síntese de streaming a fez se sentir no controle. A equipe de pesquisa tem trabalhado para tornar os implantes sem fio em vez de conectá -los a computadores. Anumanchipalli era a pessoa com quem falei. Você acha que uma pessoa em tempo real poderia se comunicar com os outros o que eles queriam? Ele riu e disse “
É difícil prever. “O que eu vejo são inovações que nos permitem dar às pessoas a mais alta qualidade de vida. Eles precisam se comunicar com uma cópia digital de si mesmos. É aqui que devemos estar. Johnson espera um dia para se tornar um conselheiro em um centro de reabilitação, e que não é possível que eu tenha uma maneira de se comunicar com os clientes. acabou. “Quero demonstrar que a deficiência não precisa desacelerar ou impedi -lo.”
O fornecido pela Universidade da Califórnia, Berkeley
Citação
: Os cientistas usam a IA 2025 para restaurar seu discurso após um derrame que tirou sua capacidade de conversar. Recuperado em 17 de agosto de 2025 de https://medicalxpress.com/news/2025-08-nsolabilability-anos-scientists-ai.html
Os direitos autorais se aplica a este documento. Este documento é protegido por direitos autorais. Nenhuma parte do site pode ser reproduzida ou copiada sem consentimento por escrito. Este conteúdo é fornecido apenas como informação.