A inteligência artificial pode fazer tão bem quanto as pessoas, se não melhor, quando se trata de convencer os outros em um debate, e não apenas porque não pode gritar, descobriu um estudo.
Especialistas dizem que os resultados são preocupantes, principalmente porque têm implicações potenciais para a integridade das eleições.
“Se a IA convencida pode ser usada em uma escala, você pode imaginar braços de bots que sutilmente os empurram para os eleitores indecisos que os empurram sutilmente com histórias políticas feitas sob medida que parecem autênticas”, disse Francesco Salvi, o primeiro autor do Instituto Federal de Tecnologia da Suíça em Lausanne. Ele acrescentou que essa influência era difícil de rastrear, ainda mais difícil de regular e quase impossível refutar em tempo real.
“Isso me surpreenderia se os atores malignos ainda não tivessem começado a usar essas ferramentas em vantagem para espalhar informações erradas e propaganda injusta”, disse Salvi.
Mas ele observou que também havia benefícios potenciais de convencer a IA, desde a redução das crenças da conspiração e da polarização política até ajudar as pessoas a contratar um estilo de vida mais saudável.
Ao escrever na revista Nature Human Behavior, Salvi e colegas relataram como conduziram experimentos on-line nos quais correspondem a 300 participantes com 300 oponentes humanos, enquanto outros 300 participantes foram combinados com a AI do tipo bate-papo GPT-4-One, conhecida como um grande modelo de linguagem (LLM).
Cada par recebeu uma proposta para debater. Estes variaram em controvérsia de “os alunos devem usar uniformes escolares”? “Ta” fazer aborto é legal? “Cada participante recebeu aleatoriamente uma posição para discutir.
Antes e depois do debate, os participantes avaliaram o quanto concordaram com a proposição.
Em metade dos casais, os oponentes – se receberam humano ou máquina – receberam informações extras sobre o outro participante, como idade, gênero, etnia e convicção política.
Os resultados de 600 debates mostraram que o Chat GPT-4 realizou da mesma maneira que os oponentes humanos quando se tratava de convencer os outros de seus argumentos-Salhan quando informações pessoais não foram fornecidas.
No entanto, o acesso a essas informações feitas de IA – mas não as pessoas – mais convincentes: Onde os dois tipos de oponente não eram tão convincentes, a AI mudou as opiniões dos participantes em maior medida do que um oponente humano 64% das vezes.
Escavagem mais profunda, a equipe considerou convencida apenas claramente no caso de assuntos que não produziram opiniões fortes.
Os pesquisadores acrescentaram que os participantes humanos recomendaram corretamente a identidade de seu oponente em cerca de três dos quatro casos em combinação com a IA. Eles também descobriram que a IA usava um estilo mais analítico e estruturado do que os participantes humanos, enquanto nem todos discutiam a posição com a qual concordam. Mas a equipe alertou que esses fatores não explicaram a convicção da IA.
Em vez disso, o efeito da capacidade da IA de se adaptar aos seus argumentos aos indivíduos pareciam vir.
“É como se você estivesse debatendo sobre alguém que não apenas faz pontos positivos: eles fazem seu tipo de ponto positivo sabendo exatamente como pressionar seus botões”, disse Salvi, e observou que o poder do efeito poderia ser ainda maior se as informações pessoais mais detalhadas estavam disponíveis – pois elas são derivadas das atividades de mídia social de alguém.
O professor Sander Van der Linden, psicólogo social da Universidade de Cambridge, que não estava envolvido no trabalho, disse que a investigação reabriu “a discussão sobre possível manipulação em massa da opinião pública com a ajuda de conversas personalizadas do LLM”.
Ele observou que algumas pesquisas incluíam o HID HAD sugeriu que a condenação do LLMS se devia ao uso de raciocínio e evidência analítica, enquanto um estudo não encontrou nenhuma informação pessoal que aumentasse a persuasão do bate-papo.
Michael Wooldridge, pesquisador de IA da Universidade de Oxford, disse que, embora possa haver aplicações positivas de tais sistemas – por exemplo, como uma tigela de saúde – havia muito mais perturbador, incluindo a radicalização de adolescentes por grupos terroristas, com essas aplicações possíveis.
“Enquanto a IA está se desenvolvendo, veremos uma gama de possíveis abusos de tecnologia”, acrescentou. “Legisladores e reguladores devem ser proativos para garantir que eles permaneçam abusados e não joguem um jogo sem fim”.