O chefe de IA do Pentágono, Emil Michael, não está preocupado com o apoio legal da Microsoft ao Anthropic. Na verdade, ele me disse que toda a situação é “totalmente louca”.
Michael rejeitou o amicus brief da Microsoft, que a empresa apresentou no início desta semana em apoio à Anthropic e contra o Departamento de Guerra, como pouco mais do que uma medida para apaziguar os funcionários.
“É normal provar aos seus funcionários que vocês têm certa camaradagem (com outras empresas de tecnologia de esquerda)”, disse Michael, que atua como subsecretário de Defesa para Pesquisa e Engenharia e supervisiona os contratos de IA, por telefone no início desta semana. “Se você ler os resumos reais, verá que tudo o que o Departamento de Guerra deseja fazer é legal.”
Emil Michael (à direita, com Peter Hegseth) atua como Subsecretário de Defesa para Pesquisa e Engenharia e supervisiona contratos de IA. GettyImages
Embora o amicus brief afirme que a Microsoft e a Anthropic querem proteger os combatentes, Michael não acredita.
É o governo, ele me disse, que está trabalhando para manter os militares seguros.
“(Nossa medida de projetar a Antrópico como um risco na cadeia de suprimentos) é proteger os combatentes – porque a Anthropic estava tentando se inserir na cadeia de comando”, explicou Michael. “O risco da cadeia de abastecimento consiste em remover esse risco e não em adicionar outro risco.”
Michael disse que esta é a última novidade em uma saga que se torna ainda mais bizarra pelo fato de a Anthropic ter trabalhado em estreita colaboração com o Departamento de Guerra durante anos antes de o governo rescindir seu contrato em fevereiro.
Após o ataque dos EUA em janeiro de 2026 que capturou e extraditou Nicolás Maduro da Venezuela, um executivo da Antrópico perguntou a um homólogo em Palantir – através do qual a IA Claude da Antrópico foi integrada – se e como a sua inteligência artificial era usada.
A Anthropic (o CEO Dario Amodei está na foto aqui) trabalhou em estreita colaboração com o Departamento de Guerra durante anos antes de traçar abruptamente o limite. REUTERS
A Anthropic forneceu uma versão especializada de Claude para alguns dos comandos militares mais sensíveis – incluindo o Comando Central e o Comando Indo-Pacífico – sob um acordo de aproximadamente US$ 200 milhões.
Palantir contou aos funcionários do Pentágono sobre o inquérito da Antrópico, e os Feds interpretaram-no como uma potencial desaprovação pós-facto. A medida levantou alarmes sobre os riscos de dependência de um fornecedor de IA que poderia questionar operações classificadas, desencadeando uma revisão do contrato e negociações fracassadas.
A Anthropic insistiu em salvaguardas que impedissem a vigilância doméstica em massa de cidadãos dos EUA – o que os EUA negam fazer – e em armas letais totalmente autónomas sem supervisão humana. Em resposta, o Pentágono classificou a Anthropic como um “risco da cadeia de abastecimento” em 4 de março e substituiu a tecnologia da Anthropic pela OpenAI.
A Anthropic processou em 9 de março, desafiando-o como ilegal e retaliatório.
A preocupação do Pentágono é que os seus contratantes possam tentar ditar as suas operações. “Não quero e não posso ter um modelo que tenha um preconceito político que possa ser envenenado porque não quer realizar certas atividades militares – ou uma ameaça interna que discorde da liderança democraticamente eleita deste país”, disse Michael.
É uma postura que Michael acha difícil conciliar com as próprias afirmações da Antrópico sobre sua tecnologia.
“Eles dizem que esta tecnologia é tão poderosa – mais poderosa que uma arma nuclear, mais poderosa que alguns governos – (e) que não querem usar esse poder para ajudar o nosso país ou o nosso departamento de guerra”, disse-me Michael, incrédulo.
“Isso nunca aconteceria na China… E ainda assim eles não querem servir a parte mais importante do governo em tempos de conflito. Isso parece muito estranho.”
Esta história faz parte do NYNext, uma visão privilegiada indispensável sobre as inovações, os disparos lunares e os movimentos de xadrez político que mais importam para os jogadores poderosos de Nova York (e para aqueles que aspiram sê-lo).
Ele disse que o que torna tudo mais estranho é que isso acontece depois de anos de trabalho com o Pentágono.
“O que é muito surpreendente é que para uma empresa que não queria fazer coisas do Departamento de Guerra, por que eles estão vendendo e implantando seu software no Departamento de Guerra por três anos?” ele disse.
O episódio foi um lembrete de que, apesar de empresas como a Palantir ou a Anduril apoiarem entusiasticamente a América e aceitarem contratos de apoio à Alfândega e Patrulha de Fronteiras e ao ICE, uma fatia de Silicon Valley ainda resiste a apoiar os militares.
O Pentágono classificou a Anthropic como um “risco da cadeia de abastecimento” – uma designação normalmente reservada a adversários estrangeiros – e a OpenAI interveio para assumir o contrato. PA
“Quando aceitei este cargo, pensei que aqueles dias de revolta dos funcionários do Google em 2018 haviam ficado para trás”, disse ele, referindo-se à revolta dos funcionários que forçou o Google a abandonar o Projeto Maven, um contrato do Pentágono para usar IA para análise de imagens de drones. O incidente tornou-se um símbolo definidor da resistência do Vale do Silício ao trabalho militar.
Mas hoje em dia ele acredita que a Anthropic é a exceção, não a norma. “Não acho que Elon tenha acordado com IA e Grok”, disse ele. E até uma empresa como o Google? Eles “aprenderam a lição de 2018”.
À medida que o Pentágono fecha contratos massivos com parceiros de longa data, também investe em novos fornecedores para garantir que os EUA estejam sempre à frente.
Nas próximas semanas, disse Michael, o departamento anunciará uma onda de novas parcerias com empresas de defesa menores e não tradicionais – startups aliviadas pela bagagem ideológica que descarrilou a Anthropic. Para Michael, é o final certo para uma estranha saga: o futuro da IA militar americana, construída por empresas que realmente querem o trabalho.
Ele disse: “(Eles estão) construindo coisas para a próxima geração de guerra”.



