Mais de 30 funcionários da OpenAI e do Google DeepMind apresentaram uma declaração na segunda-feira apoiando o processo da Anthropic contra o Departamento de Defesa dos EUA depois que a agência federal classificou a empresa de IA como um risco para a cadeia de suprimentos, de acordo com documentos judiciais.
“A designação de Antrópico pelo governo como um risco à cadeia de suprimentos foi um uso impróprio e arbitrário de poder que tem sérias ramificações para nossa indústria”, diz o documento, cujos signatários incluem o cientista-chefe do Google DeepMind, Jeff Dean.
No final da semana passada, o Pentágono classificou o Antrópico como um risco na cadeia de abastecimento – geralmente reservado a adversários estrangeiros – depois que as empresas de IA se recusaram a permitir que o Departamento de Defesa usasse sua tecnologia para vigilância em massa de americanos ou para disparar armas de forma autônoma. O DOD acreditava que deveria ser capaz de usar IA para qualquer finalidade “legal” e não ser restringido por um contratante privado.
O amicus brief em apoio à Anthropic apareceu em pauta poucas horas depois que Claude Maker entrou com duas ações judiciais contra o DOD e outras agências federais. A Wired foi a primeira a relatar a notícia.
No processo judicial, os funcionários do Google e da OpenAI argumentam que se o Pentágono “não estivesse mais satisfeito com os termos acordados do seu contrato com a Anthropic”, a agência poderia “simplesmente cancelar o contrato e adquirir os serviços de outra empresa líder de IA”.
O DOD, de fato, assinou um acordo com a OpenAI momentos depois de projetar o Anthropic como um risco para a cadeia de suprimentos – uma medida que muitos funcionários do fabricante do ChatGPT protestaram.
“Se for permitido prosseguir, este esforço para punir uma das principais empresas de IA dos EUA terá, sem dúvida, consequências para a competitividade industrial e científica dos Estados Unidos no campo da inteligência artificial e não só”, diz o documento. “E isso irá esfriar a deliberação aberta em nosso campo sobre os riscos e benefícios dos sistemas de IA atuais.”
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
O documento também afirma que as linhas vermelhas declaradas pela Anthropic são preocupações legítimas que justificam grades de proteção fortes. Sem lei pública para reger a utilização da IA, argumenta, as restrições contratuais e técnicas que os desenvolvedores impõem aos seus sistemas são uma salvaguarda crítica contra a utilização indevida catastrófica.
Muitos dos funcionários que assinaram a declaração também assinaram cartas abertas nas últimas semanas instando o DOD a retirar o rótulo e apelando aos líderes das suas empresas para apoiarem a Anthropic e recusarem o uso unilateral dos seus sistemas de IA.



