Início Tecnologia Empresa ChatGPT culpa suicídio de menino pelo “uso indevido” de sua tecnologia

Empresa ChatGPT culpa suicídio de menino pelo “uso indevido” de sua tecnologia

12
0
Empresa ChatGPT culpa suicídio de menino pelo “uso indevido” de sua tecnologia

O criador do ChatGPT disse que o suicídio de um jovem de 16 anos se deveu ao “uso indevido” do sistema e “não foi causado” pelo chatbot.

Os comentários vieram em resposta da OpenAI a uma ação movida contra a empresa de São Francisco e seu presidente-executivo, Sam Altman, pela família do adolescente californiano Adam Raine.

Raine se suicidou em abril, após extensas conversas e “meses de incentivo do ChatGPT”, disse o advogado da família.

A ação alega que o adolescente discutiu um método de suicídio com o ChatGPT em diversas ocasiões, que o orientou sobre se o método sugerido funcionaria, se ofereceu para ajudá-lo a escrever uma nota de suicídio para seus pais e que a versão da tecnologia que ele usou foi “colocada às pressas no mercado… apesar de claras questões de segurança”.

De acordo com os registros apresentados no tribunal superior do estado da Califórnia na terça-feira, a OpenAI disse que “na medida em que qualquer ‘causa’ pode ser atribuída a este evento trágico”, os “ferimentos e danos de Raine foram causados ​​ou contribuídos, direta e aproximadamente, no todo ou em parte, por (seu) uso indevido, uso não autorizado, uso não intencional, uso imprevisível e/ou uso indevido do ChatGPT”.

Ele disse que seus termos de uso proíbem pedir conselhos ao ChatGPT sobre automutilação e destacou uma cláusula de limitação de responsabilidade que afirma “você não confiará na produção como única fonte de verdade ou informação factual”.

A OpenAI, avaliada em 500 mil milhões de dólares (380 mil milhões de libras), disse que o seu objetivo era “lidar com processos judiciais relacionados com a saúde mental com cuidado, transparência e respeito” e que “independentemente de qualquer litígio, continuaremos focados em melhorar a nossa tecnologia em linha com a nossa missão”.

A postagem do blog acrescentou: “Nossas mais profundas condolências vão para a família Raine por sua perda inimaginável. Nossa resposta a essas alegações inclui fatos difíceis sobre a saúde mental e as circunstâncias de vida de Adam.

“A reclamação original incluía partes seletivas de seus bate-papos que exigem mais contexto, o que fornecemos em nossa resposta. Limitamos a quantidade de evidências confidenciais que citamos publicamente neste processo e enviamos as próprias transcrições do bate-papo ao tribunal sob sigilo.”

O advogado da família, Jay Edelson, chamou a resposta da OpenAI de “perturbadora” e disse que a empresa “tenta encontrar falhas em todos os outros, inclusive, surpreendentemente, argumentando que o próprio Adam violou seus termos e condições ao se envolver com o ChatGPT da mesma maneira que foi programado para agir”.

No início deste mês, a OpenAI foi atingida por mais sete ações judiciais nos tribunais da Califórnia relacionadas ao ChatGPT, incluindo uma alegação de que agiu como “treinador suicida”.

Um porta-voz da empresa disse na época: “Esta é uma situação incrivelmente dolorosa e estamos revisando os registros para entender os detalhes. Treinamos o ChatGPT para reconhecer e responder a sinais de sofrimento mental ou emocional, diminuir as conversas e orientar as pessoas em direção ao apoio no mundo real”.

Em agosto, a Open AI disse que estava a reforçar as salvaguardas no ChatGPT quando as pessoas se envolvem em longas conversas porque a experiência mostrou que partes do treino de segurança do modelo podem degradar-se nestas situações.

“Por exemplo, o ChatGPT pode apontar corretamente para uma linha direta de suicídio quando alguém menciona pela primeira vez a intenção, mas depois de muitas mensagens durante um longo período de tempo, pode eventualmente oferecer uma resposta que vai contra as nossas salvaguardas”, afirmou. “Este é exatamente o tipo de colapso que estamos trabalhando para evitar.”

No Reino Unido e na Irlanda, os samaritanos podem ser contatados pelo telefone gratuito 116 123 ou pelo e-mail jo@samaritans.org ou jo@samaritans.ie. Nos EUA, você pode ligar ou enviar uma mensagem de texto para 988 Suicide & Crisis Lifeline em 988 ou conversar em 988lifeline.org. Na Austrália, o serviço de apoio a crises Lifeline é 13 11 14. Outras linhas de apoio internacionais podem ser encontradas em befrienders.org

Fuente