Início Turismo Famílias de vítimas canadenses de tiroteios em massa processam OpenAI, CEO Altman...

Famílias de vítimas canadenses de tiroteios em massa processam OpenAI, CEO Altman no tribunal dos EUA

24
0
Yahoo news home

Por Ryan Patrick Jones e Diana Novak Jones

29 de abril (Reuters) – Familiares de vítimas de um dos tiroteios em massa mais mortíferos do Canadá processaram a OpenAI e seu CEO, Sam Altman, em um tribunal dos Estados Unidos nesta quarta-feira, alegando que a empresa identificou o atirador como uma ameaça credível oito meses antes do ataque, mas não avisou a polícia.

As ações, movidas no tribunal federal de São Francisco, acusam os líderes da OpenAI de não alertar a polícia porque isso teria exposto o volume de conversas relacionadas à violência no ChatGPT e potencialmente colocado em risco o caminho da empresa para uma oferta pública inicial de quase US$ 1 trilhão.

O tiroteio de fevereiro em Tumbler Ridge, na Colúmbia Britânica, deixou nove pessoas mortas, muitas delas crianças.

Um porta-voz da OpenAI chamou o tiroteio de “uma tragédia” e disse que a empresa tem uma política de tolerância zero ao usar suas ferramentas para auxiliar no cometimento de violência.

“Conforme partilhamos com as autoridades canadianas, já reforçámos as nossas salvaguardas, incluindo a melhoria da forma como o ChatGPT responde aos sinais de angústia, ligando as pessoas ao apoio local e aos recursos de saúde mental, fortalecendo a forma como avaliamos e escalamos potenciais ameaças de violência e melhorando a detecção de infratores recorrentes da política”, disse o porta-voz num comunicado.

Os casos fazem parte de uma onda crescente de ações judiciais que acusam empresas de inteligência artificial de não conseguirem impedir interações de chatbots que, segundo os acusados, contribuem para automutilação, doenças mentais e violência. Eles parecem ser os primeiros nos EUA a alegar que o ChatGPT desempenhou um papel na facilitação de um tiroteio em massa.

Jay Edelson, que representa os supostos, disse que planeja abrir mais duas dúzias de ações judiciais nas próximas semanas contra a empresa em nome de outras pessoas afetadas pelo tiroteio.

AÇÕES JUDICIAIS RECLAMAM EQUIPE DE SEGURANÇA OPENAI ANULADA

Jesse Van Rootselaar, cujas interações com ChatGPT estão no centro dos processos, atirou em sua mãe e meio-irmão em casa antes de matar uma assistente educacional e cinco alunos de 12 a 13 anos em sua antiga escola em 10 de fevereiro, segundo a polícia. Van Rootselaar, que tinha 18 anos, morreu por suicídio.

As incógnitas incluem parentes dos mortos na escola e uma menina de 12 anos que sobreviveu após levar três tiros, mas permanece na UTI.

De acordo com uma das reclamações, os sistemas automatizados da OpenAI em junho de 2025 sinalizaram conversas do ChatGPT nas quais o atirador descrevia cenários de violência armada.

Os membros da equipe de segurança recomendaram entrar em contato com a polícia depois de concluir que ela representava uma ameaça credível e iminente de dano, disse a denúncia, que cita um artigo do Wall Street Journal de fevereiro sobre as discussões internas da empresa.

Mas Altman e outros líderes da OpenAI rejeitaram a equipe de segurança e a polícia nunca foi chamada, alega o processo. A conta da atiradora foi desativada, mas ela conseguiu uma nova conta e continuou usando a plataforma para planejar seu ataque, afirma o processo.

Após a publicação do artigo do Wall Street Journal, a empresa disse que a conta foi sinalizada por sistemas que identificam “usos indevidos dos nossos modelos na promoção de atividades violentas”, mas as questões não atendiam aos seus critérios internos de denúncia às autoridades.

Na semana passada, um jornal local de Tumbler Ridge publicou uma carta aberta na qual Altman disse estar “profundamente arrependido” por a conta não ter sido sinalizada para as autoridades.

Num blog publicado na terça-feira, a OpenAI disse que treina os seus modelos para recusar pedidos que possam “permitir a violência de forma significativa” e notifica as autoridades quando as conversas sugerem “um risco iminente e credível de danos a terceiros”, com especialistas em saúde mental a ajudar a avaliar casos limítrofes. A empresa disse que refina continuamente seus modelos e métodos de detecção com base no uso e na opinião de especialistas.

As ações judiciais buscam uma quantia não especificada de danos e uma ordem judicial exigindo que a OpenAI revise suas práticas de segurança, incluindo protocolos obrigatórios de encaminhamento para aplicação da lei. Uma das vítimas originalmente entrou com a ação no tribunal canadense, mas a indeferiu para prosseguir com suas reivindicações na Califórnia, disse Edelson.

OPENAI ENFRENTA MÚLTIPLOS TERNOS

As ações judiciais sobre o tiroteio em Tumbler Ridge ocorrem depois que várias ações judiciais contra a OpenAI foram movidas em tribunais estaduais e federais dos EUA nos últimos meses, sob alegações de que o ChatGPT facilitou comportamento prejudicial, suicídio e, em pelo menos um caso, assassinato-suicídio.

Os processos, que ainda estão em fase inicial, forçarão os tribunais a debater o papel que uma plataforma de IA pode desempenhar na promoção da violência e se a empresa ‌pode ser responsabilizada pelas suas ações ou pelas ações dos seus utilizadores.

A OpenAI negou as alegações nas ações judiciais, argumentando no caso de homicídio e suicídio que as alegações tinham um longo histórico de doença mental.

O procurador-geral da Flórida, James Uthmeier, anunciou no início deste mês uma investigação criminal sobre o papel do ChatGPT em um tiroteio em 2025 na Florida State University.

(Reportagem de Ryan Patrick Jones e Diana Novak Jones, edição de Alexia Garamfalvi e Lincoln Feast.)

Fuente