Apesar dos conselhos de especialistas contra a dependência de chatbots para questões e preocupações de saúde mental, as pessoas estão recorrendo a programas de IA como o ChatGPT para obter ajuda. A empresa tem enfrentado críticas pela forma como seus produtos lidaram com certos problemas de saúde mental – incluindo episódios em que usuários morreram por suicídio após conversas com o ChatGPT. Como parte de uma campanha para resolver estes problemas, a OpenAI está agora a lançar um sistema voluntário de verificação de segurança para utilizadores que possam estar preocupados com os seus pensamentos.
Conforme relatado pelo Mashable, a OpenAI acaba de lançar o “Contato Confiável”, um novo recurso que permite escolher uma pessoa de confiança em sua vida para se conectar à sua conta ChatGPT. A ideia não é compartilhar suas conversas ou colaborar em projetos dentro do ChatGPT; em vez disso, se o chatbot achar que seus bate-papos pessoais estão tomando uma direção preocupante no que diz respeito à automutilação, o ChatGPT entrará em contato com seu contato de confiança, avisando-o para verificar como você está.
Crédito: OpenAI
Para configurar o recurso, escolha alguém em sua vida que tenha 18 anos ou mais. (O contato deve ter 19 anos ou mais na Coreia do Sul.) O ChatGPT enviará a essa pessoa um convite para se tornar seu contato confiável: ela terá uma semana para responder antes que o convite expire. Claro, eles também podem recusar o convite se não quiserem participar.
Se o contato concordar, o recurso entra em ação. No futuro, se o sistema automatizado da OpenAI achar que você está discutindo sobre se machucar “de uma forma que indique uma séria preocupação de segurança”, o ChatGPT informará que pode entrar em contato com o contato confiável, mas também o incentiva a entrar em contato com esse contato você mesmo, com “iniciadores de conversa” para quebrar o gelo.
Enquanto isso acontece, a OpenAI conta com uma equipe de “pessoas especialmente treinadas” para analisar a situação. (Parece que nem tudo é automatizado.) Se esta equipe concluir que a situação é séria, o ChatGPT alertará seu contato de confiança por e-mail, texto ou por meio de uma notificação no aplicativo ChatGPT, se ele tiver uma conta. A OpenAI afirma que a notificação em si é bastante limitada e apenas compartilha informações gerais sobre a preocupação com automutilação e aconselha o contato a entrar em contato com você. Ele também não enviará transcrições ou resumos de bate-papo, portanto, sua privacidade geral deve ser preservada, considerando todos os aspectos.
O que você acha até agora?
A OpenAI afirma que está trabalhando para revisar as notificações de segurança em menos de uma hora e que desenvolveu o recurso com orientação de investigadores, pesquisadores e organizações de saúde mental e prevenção de suicídio. O recurso é, obviamente, totalmente voluntário, portanto o usuário precisará se inscrever (e um contato) se achar que isso o ajudaria. Contanto que o façam, no entanto, esta pode ser uma maneira útil para amigos e familiares verificarem como estão as pessoas quando elas estão passando por dificuldades – supondo que estejam compartilhando essas idéias com o ChatGPT.
Divulgação: Ziff Davis, empresa controladora da Lifehacker, em abril de 2025 entrou com uma ação contra a OpenAI, alegando que ela infringiu os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.



