Início Tecnologia OpenAI segue a liderança da Anthropics no lançamento limitado do GPT‑5.4‑Cyber

OpenAI segue a liderança da Anthropics no lançamento limitado do GPT‑5.4‑Cyber

18
0
OpenAI segue a liderança da Anthropics no lançamento limitado do GPT‑5.4‑Cyber

A OpenAI revelou o GPT-5.4-Cyber, um novo modelo de IA que pode estar disposto a aceitar solicitações aparentemente maliciosas em nome da segurança cibernética. Felizmente, o desenvolvedor do ChatGPT não permite que qualquer um brinque com sua IA menos restritiva e mais livre.

VEJA TAMBÉM:

Claude Mythos, da Anthropic, é um grande golpe ou uma ameaça real à segurança? O que dizem os especialistas.

Anunciado por meio de uma postagem no blog na terça-feira, o GPT-5.4-Cyber ​​​​é uma variante do modelo de linguagem grande GPT-5.4 disponível publicamente da OpenAI. De acordo com a OpenAI, seus modelos de IA de ponta, como o GPT-5.4, têm salvaguardas contra uso claramente malicioso, fazendo com que recusem solicitações prejudiciais dos usuários, como roubo de credenciais ou localização de vulnerabilidades no código. Em contraste, o novo modelo GPT-5.4-Cyber ​​​​da empresa é treinado para ser mais tolerante e, em vez disso, potencialmente aceitar essas solicitações.

Descrevendo o GPT-5.4-Cyber ​​​​como “ciberpermissivo”, a OpenAI afirma que essa mudança visa permitir que a IA seja usada para medidas defensivas de segurança cibernética, como ajudar os pesquisadores a encontrar vulnerabilidades a serem abordadas.

“Queremos capacitar os defensores, dando amplo acesso às capacidades de fronteira, incluindo modelos que foram feitos sob medida para a segurança cibernética”, escreveu a OpenAI. “Esta é uma versão do GPT-5.4 que reduz o limite de recusa para trabalhos legítimos de segurança cibernética e permite novos recursos para fluxos de trabalho defensivos avançados.”

Dado o perigo potencial representado pelas salvaguardas reduzidas do GPT-5.4-Cyber, nem todos serão capazes de mergulhar imediatamente para forçar ainda mais os limites éticos possivelmente flexíveis da IA. A OpenAI afirma que está começando com “implantação limitada e iterativa para fornecedores, organizações e pesquisadores de segurança avaliados”. Como tal, apenas os membros do programa Trusted Access for Cyber⁠ (TAC) terão acesso ao GPT-5.4-Cyber ​​​​atualmente, e apenas aqueles em seus níveis mais altos.

Velocidade da luz mashável

Introduzido em fevereiro, o TAC é uma rede de usuários que passaram pelo processo automatizado de verificação de identidade da OpenAI, incluindo a conclusão de uma verificação de identidade governamental. Uma vez aprovado, os usuários do programa TAC da OpenAI terão acesso a versões de seus modelos de IA com menos salvaguardas, como GPT‑5.4‑Cyber. A OpenAI afirma que o objetivo é permitir pesquisa, educação e programação em segurança cibernética.

No entanto, nem todos os usuários aprovados pelo TAC colocarão as mãos imediatamente no GPT-5.4-Cyber. A OpenAI afirma que os usuários que ainda não fazem parte dos níveis mais altos do TAC podem solicitar acesso a ele, o que exigirá autenticação adicional para se verificarem como “defensores cibernéticos legítimos”.

A revelação do GPT-5.4-Cyber ​​ocorre apenas uma semana depois que o concorrente da OpenAI, Anthropic, anunciou o Projeto Glasswing. Assim como o TAC, o Projeto Glasswing é uma iniciativa que restringe o modelo Claude Mythos Preview AI da Anthropic, focado em segurança cibernética, para selecionar organizações aprovadas. Alegando que o Claude Mythos Preview “já encontrou milhares de vulnerabilidades de alta gravidade”, a Anthropic afirmou que o Projeto Glasswing foi um esforço para garantir que seu modelo de IA fosse usado apenas para fins defensivos de segurança cibernética.

“Dada a taxa de progresso da IA, não demorará muito para que tais capacidades proliferem, potencialmente além dos atores que estão comprometidos em implantá-las com segurança”, escreveu a Anthropic.

Divulgação: Ziff Davis, empresa controladora da Mashable, em abril de 2025 entrou com uma ação contra a OpenAI, alegando que ela infringiu os direitos autorais de Ziff Davis no treinamento e operação de seus sistemas de IA.

Fuente