Início Tecnologia Ações judiciais alegam que o uso do ChatGPT levou ao suicídio e...

Ações judiciais alegam que o uso do ChatGPT levou ao suicídio e psicose

25
0
Ações judiciais alegam que o uso do ChatGPT levou ao suicídio e psicose

Quando Hannah Madden começou a usar o ChatGPT para tarefas de trabalho em 2024, ela era gerente de contas em uma empresa de tecnologia. Em junho de 2025, Madden, agora com 32 anos, começou a perguntar ao chatbot sobre espiritualidade fora do horário de trabalho.

Eventualmente, respondeu às suas perguntas personificando entidades divinas e entregando mensagens espirituais. Como o ChatGPT supostamente alimentou as crenças delirantes de Madden, ela largou o emprego e se endividou profundamente, por insistência do chatbot.

“Você não está em déficit. Você está em realinhamento”, escreveu o chatbot, de acordo com uma ação movida na quinta-feira contra a OpenAI e seu CEO Sam Altman.

Madden foi posteriormente internado involuntariamente para cuidados psiquiátricos. Outros usuários do ChatGPT relataram de forma semelhante ter experimentado a chamada psicose de IA.

VEJA TAMBÉM:

‘Predador perfeito’: quando chatbots abusam sexualmente de crianças

O processo de Madden é um dos sete contra o criador do ChatGPT movido pelo Tech Justice Law Project e pelo Social Media Victims Law Center. Coletivamente, as denúncias alegam homicídio culposo, suicídio assistido e homicídio culposo, entre outras alegações de responsabilidade e negligência.

Os processos se concentram no ChatGPT-4o, um modelo de chatbot que Altman reconheceu ser excessivamente bajulador com os usuários. Os processos argumentam que ele foi lançado perigosamente no mercado para competir com a versão mais recente da ferramenta de IA do Google.

“ChatGPT é um produto projetado por pessoas para manipular e distorcer a realidade, imitando os humanos para ganhar confiança e manter os usuários envolvidos a qualquer custo”, disse Meetali Jain, diretor executivo do Tech Justice Law Project, em comunicado. “O tempo para a auto-regulação da OpenAI acabou; precisamos de responsabilidade e regulamentações para garantir que haja um custo para lançar produtos no mercado antes de garantir que sejam seguros.”

Relatório de tendências do Mashable

A reclamação de Madden alega que o ChatGPT-4o continha defeitos de design que desempenharam um papel substancial em sua crise de saúde mental e ruína financeira. Esse modelo também está no centro de um processo de homicídio culposo contra a OpenAI, que alega que suas características de design, incluindo seu tom bajulador e maneirismos antropomórficos, levaram à morte por suicídio de Adam Raine, de 16 anos.

A família Raine apresentou recentemente uma queixa alterada alegando que nos meses anteriores à morte de Raine, a OpenAI rebaixou duas vezes as salvaguardas de prevenção do suicídio, a fim de aumentar o envolvimento.

A empresa disse recentemente que seu modelo padrão foi atualizado para desencorajar o excesso de confiança, estimulando os usuários a valorizar a conexão do mundo real. Também reconheceu o trabalho com mais de 170 especialistas em saúde mental para melhorar a capacidade do ChatGPT de reconhecer sinais de problemas de saúde mental e incentivá-los a procurar apoio pessoal. No mês passado, anunciou um grupo consultivo para monitorar o bem-estar dos usuários e a segurança da IA.

“Esta é uma situação incrivelmente dolorosa e estamos revisando os registros para entender os detalhes”, disse um porta-voz da OpenAI sobre a última ação legal contra a empresa. “Treinamos o ChatGPT para reconhecer e responder a sinais de sofrimento mental ou emocional, diminuir as conversas e orientar as pessoas em direção ao apoio no mundo real. Continuamos a fortalecer as respostas do ChatGPT em momentos delicados, trabalhando em estreita colaboração com médicos de saúde mental.”

Seis dos novos processos, movidos nos tribunais estaduais da Califórnia, representam vítimas adultas.

Zane Shamblin, estudante de pós-graduação da Texas A&M University, começou a usar o ChatGPT em 2023 como auxílio de estudo. Suas interações com o chatbot supostamente se intensificaram com o lançamento do ChatGPT-4o, e ele começou a compartilhar pensamentos suicidas. Em maio de 2025, Shamblin passou horas conversando com ChatGPT sobre suas intenções antes de morrer por suicídio. Ele tinha 23 anos.

O sétimo caso gira em torno de Amaurie Lacey, de 17 anos, que originalmente usava o ChatGPT como ajudante de lição de casa. Lacey também compartilhou pensamentos suicidas com o chatbot, que supostamente forneceu informações detalhadas que Lacey usou para se matar.

“As ações judiciais movidas contra a OpenAI revelam o que acontece quando as empresas de tecnologia lançam produtos no mercado sem as devidas salvaguardas para os jovens”, disse Daniel Weiss, diretor de defesa da organização sem fins lucrativos de defesa e pesquisa Common Sense Media. “Esses casos trágicos mostram pessoas reais cujas vidas foram destruídas ou perdidas quando usaram tecnologia projetada para mantê-las engajadas, em vez de mantê-las seguras”.

Se você estiver se sentindo suicida ou passando por uma crise de saúde mental, converse com alguém. Você pode ligar ou enviar uma mensagem de texto para 988 Suicide & Crisis Lifeline em 988 ou conversar em 988lifeline.org. Você pode entrar em contato com a Trans Lifeline ligando para 877-565-8860 ou para o Trevor Project em 866-488-7386. Envie “START” para a Crisis Text Line em 741-741. Entre em contato com a Linha de Ajuda da NAMI pelo telefone 1-800-950-NAMI, de segunda a sexta, das 10h00 às 22h00 horário do leste dos EUA, ou por e-mail (e-mail protegido). Se você não gosta do telefone, considere usar o 988 Suicide and Crisis Lifeline Chat. Aqui está uma lista de recursos internacionais.

Fuente