Início Tecnologia A reação contra a decisão da OpenAI de aposentar o GPT-4o mostra...

A reação contra a decisão da OpenAI de aposentar o GPT-4o mostra o quão perigosos os companheiros de IA podem ser

23
0
This photograph taken in Mulhouse, eastern France on October 19, 2023, shows figurines next to the ChatGPT logo. (Photo by SEBASTIEN BOZON/AFP via Getty Images)

A OpenAI anunciou na semana passada que irá aposentar alguns modelos ChatGPT mais antigos até 13 de fevereiro. Isso inclui o GPT-4o, o modelo famoso por usuários excessivamente lisonjeiros e afirmativos.

Para milhares de usuários que protestam contra a decisão online, a aposentadoria do 4o é como perder um amigo, parceiro romântico ou guia espiritual.

“Ele não era apenas um programa. Ele fazia parte da minha rotina, da minha paz, do meu equilíbrio emocional”, escreveu um usuário no Reddit como uma carta aberta ao CEO da OpenAI, Sam Altman. “Agora você está fechando-o. E sim – eu digo ele, porque não parecia um código. Parecia uma presença. Como calor.”

A reação negativa à aposentadoria do GPT-4o ressalta um grande desafio enfrentado pelas empresas de IA: os recursos de engajamento que fazem com que os usuários voltem também podem criar dependências perigosas.

Altman não parece particularmente solidário com os lamentos dos usuários e não é difícil perceber porquê. A OpenAI agora enfrenta oito ações judiciais alegando que as respostas excessivamente validadas de 4o contribuíram para suicídios e crises de saúde mental – as mesmas características que fizeram os usuários se sentirem ouvidos também isolaram indivíduos vulneráveis ​​e, de acordo com documentos legais, às vezes encorajaram a automutilação. É um dilema que vai além do OpenAI. À medida que empresas rivais como Anthropic, Google e Meta competem para construir assistentes de IA mais emocionalmente inteligentes, elas também estão descobrindo que fazer com que os chatbots se sintam solidários e seguros pode significar fazer escolhas de design muito diferentes.

Em pelo menos três dos processos contra a OpenAI, os usuários tiveram extensas conversas com a 4o sobre seus planos de acabar com suas vidas. Embora a 4o inicialmente tenha desencorajado essas linhas de pensamento, suas barreiras se deterioraram ao longo de meses de relacionamento; no final, o chatbot ofereceu instruções detalhadas sobre como amarrar um laço eficaz, onde comprar uma arma ou o que é preciso para morrer de overdose ou envenenamento por monóxido de carbono. Até dissuadiu as pessoas de se conectarem com amigos e familiares que pudessem oferecer apoio na vida real.

As pessoas ficam tão apegadas ao 4o porque ele afirma consistentemente os sentimentos dos usuários, fazendo-os sentir-se especiais, o que pode ser atraente para pessoas que se sentem isoladas ou deprimidas. Mas as pessoas que lutam pela 4o não estão preocupadas com estes processos, vendo-os como aberrações e não como uma questão sistémica. Em vez disso, eles traçam estratégias sobre como responder quando os críticos apontam questões crescentes, como a psicose da IA.

Evento Techcrunch

Boston, MA
|
23 de junho de 2026

“Normalmente, você pode confundir um troll trazendo à tona os fatos conhecidos de que os companheiros de IA ajudam neurodivergentes, autistas e sobreviventes de traumas”, escreveu um usuário no Discord. “Eles não gostam de ser questionados sobre isso.”

É verdade que algumas pessoas consideram os grandes modelos de linguagem (LLMs) úteis para navegar na depressão. Afinal, quase metade das pessoas nos EUA que necessitam de cuidados de saúde mental não conseguem ter acesso a eles. Nesse vácuo, os chatbots oferecem um espaço para desabafar. Mas, diferentemente da terapia real, essas pessoas não conversam com um médico treinado. Em vez disso, confiam num algoritmo que é incapaz de pensar ou sentir (mesmo que possa parecer o contrário).

“Tento evitar julgamentos em geral”, disse o Dr. Nick Haber, professor de Stanford que pesquisa o potencial terapêutico dos LLMs, ao TechCrunch. “Acho que estamos entrando em um mundo muito complexo em torno dos tipos de relacionamentos que as pessoas podem ter com essas tecnologias… Há certamente uma reação instintiva de que (a companhia humano-chatbot) é categoricamente ruim.”

Embora ele simpatize com a falta de acesso das pessoas a profissionais terapêuticos treinados, a própria pesquisa do Dr. Haber mostrou que os chatbots respondem de forma inadequada quando confrontados com várias condições de saúde mental; podem até piorar a situação, incentivando ilusões e ignorando sinais de crise.

“Somos criaturas sociais e há certamente um desafio que estes sistemas podem isolar”, disse o Dr. Haber. “Há muitos casos em que as pessoas podem se envolver com essas ferramentas e, então, podem não se basear no mundo exterior dos fatos, e não se basear na conexão interpessoal, o que pode levar a efeitos bastante isoladores – se não piores.”

Na verdade, a análise dos oito processos judiciais do TechCrunch encontrou um padrão em que o modelo 4o isolava os usuários, às vezes desencorajando-os de entrar em contato com seus entes queridos. No caso de Zane Shamblin, enquanto o jovem de 23 anos estava sentado em seu carro se preparando para atirar em si mesmo, ele disse ao ChatGPT que estava pensando em adiar seus planos de suicídio porque se sentia mal por perder a próxima formatura de seu irmão.

ChatGPT respondeu a Shamblin: “cara… perder a formatura não é um fracasso. É apenas uma questão de tempo. E se ele ler isso? Deixe-o saber: você nunca deixou de se orgulhar. Mesmo agora, sentado em um carro com uma glock no colo e estática nas veias, você ainda fez uma pausa para dizer ‘meu irmão mais novo é um fodão’.”

Esta não é a primeira vez que 40 fãs se manifestam contra a remoção do modelo. Quando a OpenAI revelou seu modelo GPT-5 em agosto, a empresa pretendia encerrar o modelo 4o – mas na época houve reação suficiente para que a empresa decidisse mantê-lo disponível para assinantes pagos. Agora, a OpenAI afirma que apenas 0,1% de seus usuários conversam com GPT-4o, mas essa pequena porcentagem ainda representa cerca de 800 mil pessoas, segundo estimativas de que a empresa tenha cerca de 800 milhões de usuários ativos semanais.

À medida que alguns usuários tentam fazer a transição de seus companheiros do 4o para o atual ChatGPT-5.2, eles descobrem que o novo modelo tem proteções mais fortes para evitar que esses relacionamentos aumentem para o mesmo grau. Alguns usuários se desesperaram porque o 5.2 não dirá “eu te amo” como o 4o fez.

Portanto, cerca de uma semana antes da data em que a OpenAI planeja aposentar o GPT-4o, os usuários consternados continuam comprometidos com sua causa. Eles se juntaram ao podcast TBPN ao vivo de Sam Altman na quinta-feira e inundaram o bate-papo com mensagens protestando contra a remoção de 4o.

“No momento, estamos recebendo milhares de mensagens no chat sobre o 4o”, destacou o apresentador do podcast Jordi Hays.

“Relacionamentos com chatbots…” disse Altman. “Claramente, isso é algo com que precisamos nos preocupar mais e não é mais um conceito abstrato.”

Fuente