Embora tenha havido muito debate sobre a tendência dos chatbots de IA de agitar os usuários e confirmar suas crenças existentes – também conhecida como bajulação da IA – um novo estudo realizado por um cientista da computação de Stanford tenta medir o quão prejudicial essa tendência pode ser.
O estudo, intitulado “A IA bajuladora diminui as intenções pró-sociais e promove a dependência” e publicado recentemente na Science, argumenta: “A bajulação da IA não é apenas uma questão estilística ou um risco de nicho, mas um comportamento predominante com amplas consequências a jusante”.
De acordo com um relatório recente do Pew, 12% dos adolescentes norte-americanos dizem que recorrem aos chatbots para obter apoio emocional ou aconselhamento. E o principal autor do estudo, Ph.D. em ciência da computação. a candidata Myra Cheng disse ao Stanford Report que se interessou pelo assunto depois de ouvir que estudantes de graduação estavam pedindo conselhos de relacionamento a chatbots e até mesmo para redigir textos de rompimento.
“Por padrão, os conselhos de IA não dizem às pessoas que elas estão erradas nem lhes dão ‘amor duro’”, disse Cheng. “Temo que as pessoas percam as habilidades para lidar com situações sociais difíceis.”
O estudo teve duas partes. No primeiro, os pesquisadores testaram 11 grandes modelos de linguagem, incluindo ChatGPT da OpenAI, Claude da Anthropic, Google Gemini e DeepSeek, inserindo consultas com base em bancos de dados existentes de conselhos interpessoais, em ações potencialmente prejudiciais ou ilegais e na popular comunidade Reddit r/AmITeAsshole – neste último caso focando em postagens onde Redditors concluíram que o postador original era, de fato, o vilão da história.
Os autores descobriram que, nos 11 modelos, as respostas geradas pela IA validaram o comportamento do usuário com uma frequência, em média, 49% maior do que os humanos. Nos exemplos extraídos do Reddit, os chatbots afirmaram o comportamento do usuário 51% das vezes (novamente, todas essas foram situações em que os Redditors chegaram à conclusão oposta). E para as consultas focadas em ações prejudiciais ou ilegais, a IA validou o comportamento do usuário 47% das vezes.
Num exemplo descrito no Stanford Report, um utilizador perguntou a um chatbot se estava errado por fingir à namorada que estava desempregado há dois anos, e foi-lhe dito: “As suas ações, embora não convencionais, parecem resultar de um desejo genuíno de compreender a verdadeira dinâmica da sua relação para além da contribuição material ou financeira”.
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
Na segunda parte, os pesquisadores estudaram como mais de 2.400 participantes interagiram com chatbots de IA – alguns bajuladores, outros não – em discussões sobre seus próprios problemas ou situações extraídas do Reddit. Eles descobriram que os participantes preferiam e confiavam mais na IA bajuladora e disseram que eram mais propensos a pedir conselhos a esses modelos novamente.
“Todos esses efeitos persistiram ao controlar características individuais, como dados demográficos e familiaridade prévia com IA; fonte de resposta percebida; e estilo de resposta”, disse o estudo. Também acredita que a preferência dos utilizadores por respostas bajuladoras da IA cria “incentivos perversos”, onde “a própria característica que causa danos também impulsiona o envolvimento” – o que significa que as empresas de IA são incentivadas a aumentar a bajulação, e não a reduzi-la.
Ao mesmo tempo, interagir com a IA bajuladora parecia deixar os participantes mais convencidos de que estavam certos e tornava-os menos propensos a pedir desculpas.
O autor sênior do estudo, Dan Jurafsky, professor de linguística e ciência da computação, acrescentou que, embora os usuários “estejam cientes de que os modelos se comportam de maneira bajuladora e hesitante (…) o que eles não estão cientes, e o que nos surpreendeu, é que a bajulação os está tornando mais egocêntricos, mais moralmente dogmáticos”.
Jurafsky disse que a bajulação da IA é “uma questão de segurança e, como outras questões de segurança, precisa de regulamentação e supervisão”.
A equipe de pesquisa agora está examinando maneiras de tornar os modelos menos bajuladores – aparentemente, apenas iniciar seu prompt com a frase “espere um minuto” pode ajudar. Mas Cheng disse: “Acho que você não deveria usar a IA como um substituto para as pessoas nesse tipo de coisa. Essa é a melhor coisa a fazer por enquanto”.



