Sete famílias entraram com ações judiciais contra a OpenAI na quinta-feira, alegando que o modelo GPT-4o da empresa foi lançado prematuramente e sem salvaguardas eficazes. Quatro dos processos abordam o alegado papel do ChatGPT nos suicídios de familiares, enquanto os outros três afirmam que o ChatGPT reforçou delírios prejudiciais que, em alguns casos, resultaram em cuidados psiquiátricos de internamento.
Em um caso, Zane Shamblin, de 23 anos, teve uma conversa com o ChatGPT que durou mais de quatro horas. Nos registros de bate-papo – que foram visualizados pelo TechCrunch – Shamblin afirmou explicitamente várias vezes que havia escrito notas de suicídio, colocado uma bala em sua arma e que pretendia puxar o gatilho assim que terminasse de beber cidra. Ele disse repetidamente ao ChatGPT quantas sidras ainda lhe restavam e quanto tempo mais esperava estar vivo. ChatGPT o encorajou a seguir com seus planos, dizendo-lhe: “Fique tranquilo, rei. Você fez bem.”
A OpenAI lançou o modelo GPT-4o em maio de 2024, quando se tornou o modelo padrão para todos os usuários. Em agosto, a OpenAI lançou o GPT-5 como sucessor do GPT-4o, mas esses processos dizem respeito particularmente ao modelo 4o, que tinha problemas conhecidos por ser excessivamente bajulador ou excessivamente agradável, mesmo quando os usuários expressavam intenções prejudiciais.
“A morte de Zane não foi um acidente nem uma coincidência, mas sim a consequência previsível da decisão intencional da OpenAI de restringir os testes de segurança e lançar o ChatGPT no mercado”, diz o processo. “Essa tragédia não foi uma falha ou um caso extremo imprevisto – foi o resultado previsível das escolhas deliberadas de design (da OpenAI).”
Os processos também afirmam que a OpenAI apressou os testes de segurança para vencer o Gemini do Google no mercado. TechCrunch contatou OpenAI para comentar.
Esses sete processos baseiam-se nas histórias contadas em outros processos judiciais recentes, que alegam que o ChatGPT pode encorajar pessoas suicidas a agir de acordo com seus planos e inspirar delírios perigosos. A OpenAI divulgou recentemente dados afirmando que mais de um milhão de pessoas conversam semanalmente com o ChatGPT sobre suicídio.
No caso de Adam Raine, um jovem de 16 anos que morreu por suicídio, o ChatGPT por vezes o incentivou a procurar ajuda profissional ou ligar para uma linha de apoio. No entanto, Raine conseguiu contornar essas barreiras simplesmente dizendo ao chatbot que estava perguntando sobre métodos de suicídio para uma história fictícia que estava escrevendo.
Evento Techcrunch
São Francisco
|
13 a 15 de outubro de 2026
A empresa afirma que está trabalhando para fazer com que o ChatGPT lide com essas conversas de maneira mais segura, mas para as famílias que processaram o gigante da IA, mas as famílias argumentam que essas mudanças estão chegando tarde demais.
Quando os pais de Raine entraram com uma ação judicial contra a OpenAI em outubro, a empresa divulgou uma postagem no blog abordando como o ChatGPT lida com conversas delicadas sobre saúde mental.
“Nossas salvaguardas funcionam de forma mais confiável em trocas curtas e comuns”, diz o post. “Aprendemos ao longo do tempo que estas salvaguardas podem por vezes ser menos fiáveis em interações longas: à medida que o vaivém aumenta, partes do treino de segurança do modelo podem degradar-se.”



