Início Tecnologia OpenAI adiciona ferramentas de código aberto para ajudar os desenvolvedores a desenvolver...

OpenAI adiciona ferramentas de código aberto para ajudar os desenvolvedores a desenvolver para a segurança dos adolescentes

20
0
ChatGPT logo

A OpenAI disse na terça-feira que está lançando um conjunto de prompts que os desenvolvedores podem usar para tornar seus aplicativos mais seguros para adolescentes. O laboratório de IA disse que o conjunto de políticas de segurança para adolescentes pode ser usado com seu modelo de segurança aberto conhecido como gpt-oss-safeguard.

Em vez de trabalhar do zero para descobrir como tornar a IA mais segura para os adolescentes, os desenvolvedores podem usar essas instruções para fortalecer o que constroem. Eles abordam questões como violência gráfica e conteúdo sexual, ideais e comportamentos corporais prejudiciais, atividades e desafios perigosos, dramatizações românticas ou violentas e bens e serviços com restrição de idade.

Essas políticas de segurança são projetadas como prompts, tornando-as facilmente compatíveis com outros modelos além do gpt-oss-safeguard, embora sejam provavelmente mais eficazes no próprio ecossistema da OpenAI.

Para escrever essas instruções, a OpenAI disse que trabalhou com vigilantes de segurança de IA, Common Sense Media e Everyone.ai.

“Essas políticas imediatas ajudam a estabelecer um nível de segurança significativo em todo o ecossistema e, como são lançadas como código aberto, podem ser adaptadas e melhoradas ao longo do tempo”, disse Robbie Torney, chefe de avaliações digitais e de IA da Common Sense Media, em um comunicado.

A OpenAI observou em seu blog que os desenvolvedores, incluindo equipes experientes, muitas vezes lutam para traduzir as metas de segurança em regras operacionais precisas.

“Isso pode levar a lacunas na proteção, aplicação inconsistente ou filtragem excessivamente ampla”, escreveu a empresa. “Políticas claras e bem definidas são uma base crítica para sistemas de segurança eficazes.”

Evento Techcrunch

São Francisco, Califórnia
|
13 a 15 de outubro de 2026

A OpenAI admite que estas políticas não são uma solução para os complicados desafios da segurança da IA. Mas baseia-se nos seus esforços anteriores, incluindo salvaguardas ao nível do produto, tais como controlos parentais e previsão de idade. No ano passado, a OpenAI atualizou as diretrizes para seus grandes modelos de linguagem – conhecidos como Model Spec – para abordar como seus modelos de IA devem se comportar com usuários menores de 18 anos.

No entanto, o OpenAI não possui o histórico mais limpo. A empresa enfrenta diversas ações movidas por familiares de pessoas que morreram por suicídio após uso extremo do ChatGPT. Esses relacionamentos perigosos geralmente se formam depois que o usuário eclipsa as proteções do chatbot, e as proteções de nenhum modelo são totalmente impenetráveis. Ainda assim, estas políticas são pelo menos um passo em frente, especialmente porque podem ajudar os programadores independentes.

Fuente