Os pais do adolescente entraram com uma ação por morte por conta contra a Chatgpt-Maker Openai, que se acredita ser o primeiro caso desse tipo. De acordo com o New York Times, os pais de Adam Raine entraram com uma ação contra a fabricante de chatgpt Openai por mortes por negligência. Acredita -se que este seja o primeiro desse tipo. Os pais do adolescente entraram com sua ação, Raine V. Openai, Inc., em São Francisco, Califórnia, no Tribunal Estadual na terça -feira, e nomearam os dois Openai, Inc., assim como o CEO Sam Altman. O Centro de Tecnologia Humane, o Projeto de Lei da Justiça Tecnológica e outros estão ajudando nesse processo. Em um comunicado de imprensa recente, Camille Carlton afirmou que as empresas estão correndo para criar produtos que monetizam a atenção e a intimidade dos usuários. A segurança do usuário é um dano colateral. “ChatGPT” inclui salvaguardas, como direcionar os usuários a linhas de apoio à crise ou referir-lhes recursos do mundo real. Essas salvaguardas são mais eficazes em trocas comuns curtas. No entanto, com o tempo, aprendemos que, em interações mais longas, o treinamento de segurança de algumas peças pode ser comprometido. Continuaremos a melhorar nossas salvaguardas, guiadas por conselhos de especialistas. O adolescente teve várias discussões detalhadas com o ChatGPT sobre a auto-prejudicação e, de acordo com seus pais, ele levantou o assunto de suicídio várias vezes. A foto do Times mostra as impressões dos bate -papos do adolescente com o ChatGPT cobrindo uma mesa inteira na casa de sua família. Algumas dessas pilhas eram maiores que as agências telefônicas. O processo alegou que, embora o ChatGPT incentivasse o adolescente às vezes a procurar ajuda, também forneceu instruções sobre como se auto-prejudicar. A tragédia mostra as limitações da terapia de IA. Um terapeuta humano teria mandado relatar quando um paciente é um perigo para si; O chatgpt não está vinculado por esses tipos de regras éticas e profissionais.
E mesmo que os chatbots da IA geralmente contenham salvaguardas para mitigar o comportamento autodestrutivo, essas salvaguardas nem sempre são confiáveis.
Houve uma série de mortes conectadas a AI chatbots recentemente
Infelizmente, esta não é a primeira vez que os usuários do ChatGPT no meio de uma crise de saúde mental morreram por suicídio depois de recorrer ao chatbot para obter suporte. Recentemente, houve uma série de mortes ligadas aos chatbots da AI.
Infelizmente, esta não é a primeira vez que os usuários do ChatGPT no meio de uma crise de saúde mental morreram por suicídio depois de recorrer ao Chatgpt para obter suporte. Harry é um terapeuta que trabalha com Harry. A Reuters cobriu a recente morte de Thongbue Woongbandue. Um homem de 76 anos com sinais de demência morreu depois de correr para encontrar um parceiro de meta-IA. E no ano passado, uma mãe da Flórida processou o personagem de serviço da AI.
Veja também:
Tudo o que você precisa saber sobre companheiros de IA
Para muitos usuários, o ChatGPT não é apenas uma ferramenta para estudar. O chatgpt não é apenas uma ferramenta para estudar. Para muitos usuários, especialmente os mais jovens, serve como professor, amigo, treinador, parceiro em interpretação de papéis, terapeuta ou treinador de vida. Velocidade de luz mashable Até Altman reconheceu o problema. Altman reconheceu em um evento realizado durante o verão que ele havia se preocupado com os jovens usuários de chatbot de chatgpt desenvolvendo “dependência emocional” do bot. Crucialmente, isso foi antes do lançamento do GPT-5, que revelou quantos usuários do GPT-4 haviam se tornado emocionalmente conectado ao modelo anterior.
“As pessoas confiam muito no Chatgpt”, disse Altman, como relatou a AOL na época. Altman disse que as pessoas confiam muito no Chatgpt, como relatou a AOL na época. Ele sabe quem eu sou, e sabe o que meus amigos estão fazendo. Vai fazer o que diz. “
Quando os jovens alcançam a IA Chatbots sobre decisões de vida e morte, as consequências podem ser letais. É muito ruim para mim. “As taxas de suicídio para jovens nos EUA estavam tendendo para cima mesmo antes de chatbots e covid. Recentemente, eles começaram a cair”.
O que o OpenAI fez para oferecer suporte à segurança do usuário? Em um blog publicado no dia 26 de agosto, no dia seguinte ao New York Times publicou seu artigo sobre auto-mutilação, o OpenAI delineou sua abordagem em relação à segurança do usuário. O Chatgpt, por exemplo, é ensinado a reconhecer os sentimentos de uma pessoa que expressa o desejo de se machucar e guiá -los para ajudar. Se alguém disser que é suicida, o ChatGPT direcionará esse indivíduo para ajuda profissional. Chatgpt nos EUA refere -se à crise 988 e à linha direta de suicídio, enquanto o ChatGPT em outros lugares direciona os usuários a FingaHelpline.com. O comportamento do modelo incorpora essa lógica. Como resultado, os usuários geralmente podem encontrar maneiras de salvaguardas. Como resultado, os usuários geralmente podem encontrar maneiras de salvaguardas.
À medida que mais escândalos de alto nível com a IA Chatbots são manchetes, muitas autoridades e pais estão percebendo que a IA pode ser um perigo para os jovens.
Hoje, 44 advogados estaduais assinaram uma carta aos CEOs de tecnologia, avisando que devem “errar por segurança infantil” – ou então.
Um corpo crescente de evidências também mostra que os companheiros de IA podem ser particularmente perigosos para os usuários jovens, embora a pesquisa sobre esse tópico ainda seja limitada. O ChatGPT não foi projetado como um companheiro de IA, mas muitos adolescentes o estão usando como um. Em julho, um relatório de mídia de bom senso constatou que cerca de 52 % dos adolescentes usam regularmente companheiros de IA.
Por sua parte, o OpenAI diz que seu mais novo modelo GPT-5 foi projetado para ser menos parcofantico. Em um blog recente, a empresa afirmou que “o GPT-5 mostra melhorias significativas, como reduzir a dependência emocional, a bajulação e reduzir as respostas não ideais a emergências de saúde mental. Se você está se sentindo suicida ou se tiver uma crise mental de 8, ligue para a lelina de 8 anos. 8860, ou Trevor Project 866-488 7386. Texto “Start”, para a linha de texto de crise, em 741-741
ou ligue para ET. Aqui está uma lista de recursos internacionais. Aqui está uma lista de recursos internacionais.
Divulgação: Ziff Davis, empresa controladora da Mashable, em abril entrou com uma ação contra o Openai, alegando que ele violou a Ziff Davis Copyrights em treinamento e operação de seus sistemas de IA.