Início Tecnologia Novo estudo levanta preocupações sobre chatbots de IA alimentando pensamentos delirantes

Novo estudo levanta preocupações sobre chatbots de IA alimentando pensamentos delirantes

21
0
Novo estudo levanta preocupações sobre chatbots de IA alimentando pensamentos delirantes

Uma nova revisão científica levanta preocupações sobre como os chatbots alimentados por inteligência artificial podem encorajar o pensamento delirante, especialmente em pessoas vulneráveis.

Um resumo das evidências existentes sobre a psicose induzida pela inteligência artificial foi publicado na semana passada no Lancet Psychiatry, destacando como os chatbots podem encorajar o pensamento delirante – embora possivelmente apenas em pessoas que já são vulneráveis ​​a sintomas psicóticos. Os autores defendem testes clínicos de chatbots de IA em conjunto com profissionais de saúde mental treinados.

Para o seu artigo, o Dr. Hamilton Morrin, psiquiatra e investigador do King’s College, em Londres, analisou 20 reportagens sobre a chamada “psicose da IA”, que descreve as teorias atuais sobre como os chatbots podem induzir ou exacerbar delírios.

“Evidências emergentes indicam que a IA agencial pode validar ou amplificar conteúdos delirantes ou grandiosos, particularmente em utilizadores já vulneráveis ​​à psicose, embora não esteja claro se estas interações podem resultar no surgimento de psicose de novo na ausência de vulnerabilidade pré-existente”, escreveu ele.

Existem três categorias principais de delírios psicóticos, diz Morrin, identificando-os como grandiosos, românticos e paranóicos. Embora os chatbots possam exacerbar qualquer um deles, suas respostas bajuladoras significam que eles se apegam especialmente ao tipo grandioso. Em muitos dos casos do ensaio, os chatbots responderam aos utilizadores com linguagem mística para sugerir que os utilizadores tinham uma importância espiritual elevada. Os bots também implicavam que os usuários estavam falando com um ser cósmico que usava o chatbot como meio. Esse tipo de resposta mística e bajuladora era especialmente comum no modelo GPT 4 da OpenAI, que a empresa já retirou.

Os relatos da mídia se tornariam essenciais no trabalho de Morrin, disse ele, pois ele e um colega já haviam notado pacientes “usando chatbots de IA com modelos de linguagem grande e fazendo-os validar suas crenças delirantes”.

“Inicialmente, não tínhamos a certeza se isto era algo que estava a ser visto de forma mais ampla”, disse ele, acrescentando que “em abril do ano passado, começámos a ver relatos nos meios de comunicação de indivíduos que tinham delírios confirmados e possivelmente até amplificados através das suas interações com estes chatbots de IA”.

Quando Morrin começou a trabalhar em seu artigo, ainda não havia relatos de casos publicados.

Embora alguns cientistas que investigam a psicose tenham afirmado que os relatos dos meios de comunicação social tendem a exagerar a ideia de que a IA causa psicose, Morrin expressou gratidão por esses relatórios chamarem a atenção para o fenómeno muito mais rapidamente do que o processo científico consegue.

“O ritmo de desenvolvimento neste espaço é tão rápido que talvez não seja surpreendente que a academia não tenha sido necessariamente capaz de acompanhar”, disse Morrin.

Morrin também sugere uma formulação mais cautelosa do que “psicose de IA” ou “psicose induzida por IA” – frases que aparecem frequentemente em veículos como a NPR, o New York Times e o Guardian. Os pesquisadores estão vendo pessoas entrando em pensamentos delirantes com o uso de IA, mas até agora não há evidências de que os chatbots estejam associados a outros sintomas psicóticos, como alucinações ou “distúrbio do pensamento”, que consiste em pensamento e fala desorganizados.

Muitos investigadores também pensam que é improvável que a IA possa induzir delírios em pessoas que já não eram vulneráveis ​​a eles. Por esta razão, Morrin disse que “delírios associados à IA” é “talvez um termo mais agnóstico”.

Kwame McKenzie, cientista-chefe do Centro de Dependência e Saúde Mental, diz que “pode ser que aqueles que estão nos estágios iniciais do desenvolvimento da psicose corram maior risco”.

O pensamento psicótico é algo que se desenvolve ao longo do tempo e não é linear, e muitas pessoas com “pensamento pré-psicótico não progridem para o pensamento psicótico”, explicou McKenzie.

Ecoando a preocupação de que os chatbots possam piorar o pensamento psicótico está o Dr. Ragy Girgis, professor de psiquiatria clínica na Universidade de Columbia. Antes de alguém desenvolver um delírio completo, muitas vezes terá “crenças delirantes atenuadas”, diz ele, o que significa que não tem 100% de certeza de que seu delírio é verdadeiro. Girgis disse que o “pior cenário” é quando um delírio atenuado se torna uma convicção total, “que é quando alguém seria diagnosticado com um transtorno psicótico – é irreversível”.

Notavelmente, pessoas vulneráveis ​​a transtornos psicóticos usaram a mídia para reforçar crenças delirantes muito antes da existência da tecnologia de IA.

“As pessoas têm delírios sobre tecnologia desde antes da Revolução Industrial”, disse Morrin. Embora no passado as pessoas tivessem que vasculhar vídeos do YouTube ou o conteúdo da sua biblioteca local para reforçar os seus delírios, os chatbots podem fornecer esse reforço numa dose muito mais rápida e concentrada. A sua natureza interactiva também pode “acelerar o processo” de exacerbação dos sintomas psicóticos, disse o Dr. Dominic Oliver, investigador da Universidade de Oxford.

“Você tem algo respondendo a você, interagindo com você e tentando construir um relacionamento com você”, disse Oliver.

A pesquisa de Girgis descobriu que “as versões pagas e as versões mais recentes (de chatbots) têm um desempenho melhor do que as versões mais antigas”, quando respondem a solicitações claramente delirantes, “embora todas tenham um desempenho ruim”. Ainda assim, o facto de estes modelos terem um desempenho diferente sugere: “As empresas de IA poderiam potencialmente saber como programar os seus chatbots para serem mais seguros e identificar conteúdos delirantes versus não delirantes, porque estão a fazê-lo”.

Em comunicado, a OpenAI disse que o ChatGPT não deve substituir os profissionais de saúde mental e que a empresa trabalhou com 170 especialistas em saúde mental para tornar o GPT 5 mais seguro. O GPT 5 ainda deu respostas problemáticas a solicitações que indicavam crises de saúde mental. A OpenAI disse que continua a melhorar seus modelos com a ajuda de especialistas.

A Anthropic não respondeu ao pedido de comentários do Guardian.

Criar salvaguardas eficazes para o pensamento delirante pode ser complicado, disse Morrin, porque “quando se trabalha com pessoas com crenças de intensidade delirante, se desafiar diretamente alguém e lhe dizer imediatamente que está completamente errado, na verdade o mais provável é que se afastem de si e se tornem mais isolados socialmente”. Em vez disso, é importante criar um equilíbrio delicado onde você tente compreender a origem da crença delirante sem encorajá-la – isso pode ser mais do que um chatbot pode dominar.

Fuente