Início Tecnologia OpenAI afirma que GPT-5.2 é mais seguro para a saúde mental. O...

OpenAI afirma que GPT-5.2 é mais seguro para a saúde mental. O que isso significa?

13
0
uma tabela que mostra o desempenho do gpt-5.2 em testes de segurança de saúde mental em comparação com o gpt-5.1

Hoje, a OpenAI lançou o GPT-5.2, elogiando seu desempenho de segurança mais forte no que diz respeito à saúde mental.

“Com este lançamento, continuamos nosso trabalho para fortalecer as respostas de nossos modelos em conversas delicadas⁠, com melhorias significativas em como eles respondem a avisos que indicam sinais de suicídio ou automutilação, problemas de saúde mental ou confiança emocional no modelo”, afirma a postagem do blog da OpenAI.

A OpenAI foi recentemente alvo de críticas e ações judiciais, que acusam o ChatGPT de contribuir para a psicose, paranóia e delírios de alguns usuários. Alguns desses usuários morreram por suicídio após longas conversas com o chatbot de IA, que teve um problema bem documentado de bajulação.

Em resposta a um processo por homicídio culposo relativo ao suicídio de Adam Raine, de 16 anos, a OpenAI negou que o LLM fosse o responsável, alegou que o ChatGPT orientou o adolescente a procurar ajuda para seus pensamentos suicidas e afirmou que o adolescente “utilizou indevidamente” a plataforma. Ao mesmo tempo, a OpenAI se comprometeu a melhorar a forma como o ChatGPT responde quando os usuários exibem sinais de alerta de automutilação e crises de saúde mental. À medida que muitos utilizadores desenvolvem ligações emocionais com chatbots de IA como o ChatGPT, as empresas de IA enfrentam um escrutínio crescente relativamente às salvaguardas que possuem para proteger os utilizadores.

Agora, a OpenAI afirma que seus modelos ChatGPT mais recentes oferecerão “menos respostas indesejáveis” em situações delicadas.

Velocidade da luz mashável

Na postagem do blog anunciando o GPT-5.2, a OpenAI afirma que o GPT-5.2 tem pontuações mais altas em testes de segurança relacionados à saúde mental, confiança emocional e automutilação em comparação aos modelos GPT-5.1. Anteriormente, a OpenAI disse que está usando a “conclusão segura”, uma nova abordagem de treinamento de segurança que equilibra utilidade e segurança. Mais informações sobre o desempenho dos novos modelos podem ser encontradas na placa de sistema 5.2.


Crédito: Captura de tela: OpenAI

No entanto, a empresa também observou que o GPT-5.2 recusa menos solicitações de conteúdo adulto, especialmente texto sexualizado. Mas isso aparentemente não afeta os usuários que a OpenAI sabe que são menores de idade, já que a empresa afirma que suas proteções de idade “parecem estar funcionando bem”. A OpenAI aplica proteções adicionais de conteúdo para menores, incluindo a redução do acesso a conteúdo que contenha violência, sangue coagulado, desafios virais, dramatização de natureza sexual, romântica ou violenta e “padrões de beleza extremos”.

Um modelo de previsão de idade também está em desenvolvimento, o que permitirá ao ChatGPT estimar a idade de seus usuários para ajudar a fornecer conteúdo mais adequado à idade dos usuários mais jovens.

No início deste outono, a OpenAI introduziu controles parentais no ChatGPT, incluindo monitoramento e restrição de certos tipos de uso.

A OpenAI não é a única empresa de IA acusada de agravar problemas de saúde mental. No ano passado, uma mãe processou a Character.AI após a morte de seu filho por suicídio, e outro processo afirma que crianças foram gravemente prejudicadas pelos “personagens” daquela plataforma. Character.AI foi declarado inseguro para adolescentes por especialistas em segurança online. Da mesma forma, chatbots de IA de uma variedade de plataformas, incluindo OpenAI, foram declarados inseguros para a saúde mental dos adolescentes, de acordo com especialistas em segurança infantil e saúde mental.

Se você estiver se sentindo suicida ou passando por uma crise de saúde mental, converse com alguém. Você pode ligar ou enviar uma mensagem de texto para 988 Suicide & Crisis Lifeline em 988 ou conversar em 988lifeline.org. Você pode entrar em contato com a Trans Lifeline ligando para 877-565-8860 ou para o Trevor Project em 866-488-7386. Envie “START” para a Crisis Text Line em 741-741. Entre em contato com a Linha de Ajuda da NAMI pelo telefone 1-800-950-NAMI, de segunda a sexta, das 10h00 às 22h00 horário do leste dos EUA, ou por e-mail (e-mail protegido). Se você não gosta do telefone, considere usar o 988 Suicide and Crisis Lifeline Chat. Aqui está uma lista de recursos internacionais.

Divulgação: Ziff Davis, empresa controladora da Mashable, entrou com uma ação judicial contra a OpenAI em abril, alegando que ela infringiu os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.

Fuente