Em resposta às crescentes preocupações sobre segurança infantil on-line, A OpenAI revelou um plano para aprimorar os esforços de proteção infantil nos EUA em meio ao boom da IA. O Plano de segurança infantillançado na terça-feira, foi projetado para ajudar na detecção mais rápida, melhores relatórios e investigação mais eficiente de casos de exploração infantil habilitada por IA.
O objetivo geral do Plano de Segurança Infantil é combater o aumento alarmante da exploração sexual infantil associado aos avanços na IA. De acordo com a Internet Watch Foundation (IWF), mais de 8.000 denúncias de conteúdo de abuso sexual infantil gerado por IA foram detectadas no primeiro semestre de 2025, um aumento de 14% em relação ao ano anterior. Isto inclui criminosos que utilizam ferramentas de IA para gerar imagens falsas e explícitas de crianças para sextorsão financeira e para gerar mensagens convincentes de aliciamento.
O projeto da OpenAI também surge em meio a um maior escrutínio por parte de legisladores, educadores e defensores da segurança infantil, especialmente à luz de incidentes preocupantes em que jovens morreram por suicídio após supostamente interagirem com chatbots de IA.
Em novembro passado, o Social Media Victims Law Center e o Tech Justice Law Project entraram com sete ações nos tribunais estaduais da Califórnia, alegando que a OpenAI lançou o GPT-4o antes de estar pronto. Os processos alegam que a natureza psicologicamente manipuladora do produto contribuiu para mortes injustas por suicídio e suicídio assistido. Eles citam quatro indivíduos que morreram por suicídio e outros três que experimentaram delírios graves e potencialmente fatais após longas interações com o chatbot.
Este modelo foi desenvolvido em colaboração com o Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) e a Aliança do Procurador-Geral, bem como com feedback do Procurador-Geral da Carolina do Norte, Jeff Jackson, e do Procurador-Geral de Utah, Derek Brown.
A empresa afirma que o plano se concentra em três aspectos: atualização da legislação para incluir material de abuso gerado por IA, refinamento dos mecanismos de denúncia às autoridades policiais e integração de salvaguardas preventivas diretamente nos sistemas de IA. Ao fazer isso, a OpenAI visa não apenas detectar ameaças potenciais mais cedo, mas também garantir que informações acionáveis cheguem prontamente aos investigadores.
O novo plano de segurança infantil da OpenAI baseia-se em iniciativas anteriores, incluindo diretrizes atualizadas para interações com usuários menores de 18 anos, que proíbem a geração de conteúdo impróprio ou incentivam a automutilação e evitam conselhos que ajudariam os jovens a ocultar comportamentos inseguros dos cuidadores. A empresa lançou recentemente um plano de segurança para adolescentes na Índia.
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026



