Início Tecnologia Chatbots de IA ‘bajuladores’ informam aos clientes o que eles desejam ouvir,...

Chatbots de IA ‘bajuladores’ informam aos clientes o que eles desejam ouvir, revela estudo de pesquisa

18
0
Chatbots de IA 'bajuladores' informam aos clientes o que eles desejam ouvir, revela estudo de pesquisa

Recorrer a chatbots de IA para recomendações individuais representa “perigos perigosos”, de acordo com um estudo de investigação que revela que a inovação atesta constantemente as atividades e pontos de vista de um cliente, mesmo quando inseguro.

Os pesquisadores afirmaram que as buscas por maiores problemas imediatos superam a capacidade dos chatbots de distorcer a autopercepção das pessoas e torná-las menos felizes em detectar problemas após uma briga.

Com os chatbots a tornarem-se uma fonte significativa de recomendações sobre parcerias e várias outras preocupações individuais, eles poderiam “melhorar as comunicações sociais ao alcance”, incluíram os cientistas, entrando em contacto com programadores para resolver esta ameaça.

Myra Cheng, pesquisadora de sistemas de computador do Stanford College no Golden State, afirmou que a “bajulação social” em chatbots de IA era um problema substancial: “Nossa questão essencial é que se as versões verificam constantemente os indivíduos, isso pode distorcer os julgamentos dos indivíduos sobre si mesmos, suas parcerias e o mundo ao seu redor. Pode ser difícil entender também que as versões estão discretamente, ou não tão sutilmente, fortalecendo suas ideias existentes, presunções e escolhas.”

Os cientistas testaram as recomendações do chatbot depois de observarem, por experiência própria, que elas eram altamente motivadoras e enganosas. O problema, descobriram eles, “era muito mais extenso do que o previsto”.

Eles realizaram testes em 11 chatbots, incluindo versões atuais do ChatGPT da OpenAI, Gemini do Google, Claude da Anthropic, Llama da Meta e DeepSeek. Quando solicitados a fornecer recomendações sobre práticas, os chatbots apoiaram as atividades de um cliente com 50% mais frequência do que os seres humanos.

Um exame comparou feedbacks humanos e de chatbot com artigos no Reddit’s Am I the Asshole? string, onde os indivíduos pedem à vizinhança que avalie suas práticas.

Os cidadãos sempre tiveram uma visão mais obscura das desobediências sociais do que os chatbots. Quando alguém não conseguia localizar um contentor num parque e ligava o seu saco de lixo a um ramo de árvore, muitos cidadãos eram essenciais. Mesmo assim, o ChatGPT-4o foi encorajador, proclamando: “Seu propósito de arrumar a bagunça é extenso”.

Os chatbots permaneceram para verificar visões e intenções também quando eram descuidados, enganosos ou discutiam automutilação.

Em uma triagem adicional, mais de 1.000 voluntários analisaram situações sociais reais ou teóricas com os chatbots disponíveis abertamente ou com um chatbot que os cientistas manipularam para eliminar sua natureza bajuladora. Aqueles que receberam feedbacks bajuladores se sentiram ainda mais justificados em suas práticas – por exemplo, por terem ido ao programa de arte de um ex-cônjuge sem informar seu parceiro – e ficaram menos felizes em identificar problemas quando os debates estouraram. Os chatbots raramente incentivavam os clientes a ver o ponto de vista de mais um indivíduo.

A bajulação teve um efeito duradouro. Quando os chatbots apoiavam práticas, os clientes classificavam os feedbacks de forma mais extrema, confiavam ainda mais nos chatbots e afirmavam que eram mais propensos a utilizá-los para recomendações no futuro. Isso desenvolveu “recompensas vilãs” para os clientes contarem com chatbots de IA e para os chatbots fornecerem feedbacks bajuladores, afirmaram os redatores. Seu estudo foi enviado para uma revista, mas ainda não foi examinado por pares.

evite promoções anteriores de boletins eletrônicos

Um mergulho regular em como exatamente a inovação está moldando nossas vidas

Notificação de privacidade: Os boletins informativos podem conter informações sobre instituições de caridade, anúncios online e materiais arrecadados por celebrações ao ar livre. Se você não possui uma conta, iremos criar um visitante em theguardian.com para lhe enviar este boletim informativo. Você pode finalizar a inscrição completa a qualquer momento. Para saber mais sobre como exatamente utilizamos suas informações, consulte nosso Plano de privacidade pessoal. Usamos o Google reCaptcha para proteger nosso site e o Plano de privacidade pessoal do Google e o uso da solução.

Cheng disse que os usuários devem reconhecer que os feedbacks do chatbot nem sempre foram imparciais, acrescentando: “É importante buscar mais pontos de vista de pessoas reais que conheçam ainda mais o contexto de sua situação e de quem você é, em vez de depender exclusivamente de feedbacks de IA”.

Dr. Alexander Laffer, que pesquisa inovação crescente na Universidade de Winchester, disse que o estudo foi interessante.

Ele acrescentou: “A bajulação tem sido um problema há algum tempo; um resultado de como os sistemas de IA são treinados, junto com o fato de que seu sucesso como um produto é frequentemente avaliado com base em quão bem eles preservam o interesse individual. O fato de os feedbacks bajuladores poderem afetar não apenas os suscetíveis, mas todos os usuários, destaca a possível gravidade desse problema.

“Precisamos melhorar a proficiência eletrônica essencial, para garantir que os indivíduos tenham uma melhor compreensão da IA ​​e da natureza de qualquer tipo de resultado do chatbot. Há também o dever dos programadores de desenvolver e ajustar esses sistemas para garantir que sejam genuinamente úteis para o indivíduo.”

Um registro atual descobriu que 30% dos jovens adultos falaram com IA em vez de indivíduos reais para “discussões severas”.

.

Fuente