Início Notícias Microsoft, Google e xAI dão aos EUA acesso a modelos de IA...

Microsoft, Google e xAI dão aos EUA acesso a modelos de IA para testes de segurança

27
0
Microsoft, Google e xAI dão aos EUA acesso a modelos de IA para testes de segurança

O acordo ocorre dias depois de o Pentágono anunciar um acordo com sete gigantes da tecnologia para usar IA em sistemas confidenciais.

Publicado em 5 de maio de 2026

Os gigantes da tecnologia Microsoft, Google e xAI afirmam que permitirão ao governo federal dos Estados Unidos acesso aos seus novos modelos de inteligência artificial para testes de segurança nacional.

O Centro de Padrões e Inovação de IA (CAISI) do Departamento de Comércio anunciou o acordo na terça-feira em meio a preocupações crescentes sobre os recursos que o modelo Mythos recém-revelado da Anthropic poderia oferecer aos hackers.

Histórias recomendadas

lista de 4 itensfim da lista

Nos termos do novo acordo, o governo dos EUA poderá avaliar os modelos antes da implantação e realizar pesquisas para avaliar as suas capacidades e riscos de segurança.

O acordo cumpre uma promessa que a administração do presidente dos EUA, Donald Trump, fez em julho de estabelecer parcerias com empresas de tecnologia para examinar os seus modelos de IA quanto a “riscos à segurança nacional”.

A Microsoft trabalhará com cientistas do governo dos EUA para testar sistemas de IA “de forma a investigar comportamentos inesperados”, disse a empresa em comunicado. Juntos, eles desenvolverão conjuntos de dados e fluxos de trabalho compartilhados para testar os modelos da empresa, disse a empresa.

A Microsoft assinou um acordo semelhante com o AI Security Institute do Reino Unido, de acordo com o comunicado.

Cresce a preocupação em Washington com os riscos à segurança nacional representados por poderosos sistemas de IA. Ao garantir o acesso antecipado aos modelos fronteiriços, as autoridades dos EUA pretendem identificar ameaças que vão desde ataques cibernéticos à utilização militar indevida, antes que as ferramentas sejam amplamente utilizadas.

O desenvolvimento de sistemas avançados de IA, incluindo o Mythos da Anthropic, nas últimas semanas criou um rebuliço a nível mundial, incluindo entre autoridades dos EUA e corporações americanas, sobre a sua capacidade de sobrecarregar hackers.

“A ciência de medição independente e rigorosa é essencial para compreender a IA de fronteira e as suas implicações para a segurança nacional”, disse o diretor da CAISI, Chris Fall, num comunicado.

A medida baseia-se nos acordos de 2024 com a OpenAI e a Anthropic sob a administração do presidente Joe Biden, quando o CAISI era conhecido como Instituto de Segurança de Inteligência Artificial dos EUA. Sob Biden, o instituto concentrou-se no desenvolvimento de testes, definições e padrões de segurança voluntários de IA. Foi liderado pela consultora de tecnologia de Biden, Elizabeth Kelly, que desde então ingressou na Anthropic, de acordo com seu perfil no LinkedIn.

O CAISI, que serve como principal centro do governo para testes de modelos de IA, disse já ter concluído mais de 40 avaliações, inclusive em modelos de ponta ainda não disponíveis ao público.

Os desenvolvedores frequentemente entregam versões de seus modelos com as proteções de segurança removidas para que o centro possa investigar riscos à segurança nacional, disse a agência.

xAI não respondeu imediatamente a um pedido de comentário. O Google se recusou a comentar.

Em Wall Street, as ações da Microsoft caíram 0,6% no pregão do meio-dia, logo após o anúncio. A Alphabet, empresa controladora do Google, por outro lado, caminhava na direção oposta. As ações subiram 1,3 por cento. xAI não é negociado publicamente.

Os anúncios seguiram-se a um acordo entre o Pentágono e sete grandes empresas tecnológicas – Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection e SpaceX – para utilizar os seus sistemas de IA em redes de computadores classificadas.

O Departamento de Defesa disse que o acordo fornecerá recursos para ajudar a “aumentar a tomada de decisões dos combatentes em ambientes operacionais complexos”.

Notavelmente ausente da lista está a empresa de IA Antrópica após sua disputa pública e luta legal com a administração Trump sobre a ética e segurança do uso de IA na guerra.

Fuente