Início Tecnologia OpenAI promete colocar a segurança dos adolescentes em primeiro lugar no ChatGPT

OpenAI promete colocar a segurança dos adolescentes em primeiro lugar no ChatGPT

26
0
OpenAI promete colocar a segurança dos adolescentes em primeiro lugar no ChatGPT

A OpenAI tem enfrentado enorme pressão nos últimos meses para abordar as preocupações de que seu principal produto, ChatGPT, não seja seguro para adolescentes.

O chatbot de IA está no centro de vários processos por homicídio culposo, alegando que treinou adolescentes a tirarem suas próprias vidas ou não respondeu adequadamente aos seus sentimentos suicidas. Um anúncio de serviço público descreveu recentemente algumas dessas trocas, imaginando os chatbots como seres humanos assustadores que prejudicam as crianças. A OpenAI negou as acusações em um caso – a morte por suicídio de Adam Raine, de 16 anos.

Na quinta-feira, a OpenAI publicou uma postagem no blog sobre seus crescentes esforços de segurança e se comprometeu a “colocar a segurança dos adolescentes em primeiro lugar, mesmo quando isso possa entrar em conflito com outros objetivos”.

A postagem introduziu uma atualização em suas especificações de modelo, que orienta como seus modelos de IA devem se comportar. Um novo conjunto de princípios para utilizadores menores de 18 anos informará particularmente como os modelos reagem em situações de alto risco.

VEJA TAMBÉM:

5 estratégias para evitar a dependência do ChatGPT

OpenAI disse que a atualização do ChatGPT deve fornecer uma “experiência segura e adequada à idade” para usuários com idades entre 13 e 17 anos, priorizando prevenção, transparência e intervenção precoce.

“Isso significa que os adolescentes devem encontrar barreiras de proteção mais fortes, alternativas mais seguras e incentivo para buscar suporte off-line confiável quando as conversas passarem para um território de maior risco”, disse o post. O ChatGPT foi projetado para incentivar os adolescentes a entrar em contato com serviços de emergência ou recursos de crise ao demonstrar risco iminente.

Velocidade da luz mashável

Quando os usuários fazem login como menores de 18 anos, as salvaguardas devem fazer com que o ChatGPT tome cuidado extra ao discutir tópicos como automutilação, suicídio, dramatização romântica ou sexualizada ou manter segredos sobre comportamento perigoso, de acordo com a empresa.

A American Psychological Association forneceu feedback à OpenAI sobre um rascunho inicial dos princípios para menores de 18 anos, de acordo com o post.

“Crianças e adolescentes podem se beneficiar das ferramentas de IA se forem equilibradas com as interações humanas que a ciência mostra serem críticas para o desenvolvimento social, psicológico, comportamental e até mesmo biológico”, disse o Dr. Arthur C. Evans Jr., CEO da American Psychological Association, no post.

A OpenAI também está oferecendo aos adolescentes e pais dois novos guias de alfabetização em IA aprovados por especialistas. A empresa disse que está nos estágios iniciais de implementação de um modelo de previsão de idade para usuários com planos de consumo ChatGPT.

Especialistas em segurança infantil e saúde mental declararam recentemente que os chatbots de IA são inseguros para discussões entre adolescentes sobre sua saúde mental. Na semana passada, a OpenAI anunciou que seu modelo mais recente, ChatGPT-5.2, é “mais seguro” para a saúde mental.

Se você estiver se sentindo suicida ou passando por uma crise de saúde mental, converse com alguém. Você pode ligar ou enviar uma mensagem de texto para 988 Suicide & Crisis Lifeline em 988 ou conversar em 988lifeline.org. Você pode entrar em contato com a Trans Lifeline ligando para 877-565-8860 ou para o Trevor Project em 866-488-7386. Envie “START” para a Crisis Text Line em 741-741. Entre em contato com a Linha de Ajuda da NAMI pelo telefone 1-800-950-NAMI, de segunda a sexta, das 10h00 às 22h00 horário do leste dos EUA, ou por e-mail (e-mail protegido). Se você não gosta do telefone, considere usar o 988 Suicide and Crisis Lifeline Chat. Aqui está uma lista de recursos internacionais.

Divulgação: Ziff Davis, empresa controladora da Mashable, entrou com uma ação judicial contra a OpenAI em abril, alegando que ela infringiu os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.

Fuente