O mesmo modelo de inteligência artificial que pode ajudá-lo a redigir um e-mail de marketing ou uma receita de jantar rápido também foi usado para atacar o Irão. O Comando Central dos EUA usou Claude AI da Anthropic para “avaliações de inteligência, identificação de alvos e simulação de cenários de batalha” durante os ataques ao país, de acordo com uma reportagem do Wall Street Journal.
Horas antes, o presidente Donald Trump ordenou que as agências federais parassem de usar o Claude após uma disputa com o seu criador, mas a ferramenta estava tão profundamente enraizada nos sistemas do Pentágono que levaria meses para ser desvendada em favor de um rival mais complacente. Também foi utilizado na operação de Janeiro que levou à captura de Nicolás Maduro.
Mas o que significam na prática “avaliações de inteligência” e “identificação de alvos”? Claude estava sinalizando locais para atacar ou fazendo estimativas de vítimas? Ninguém fez essa divulgação e, alarmantemente, ninguém tem obrigação de fazê-lo.
A inteligência artificial tem sido usada há muito tempo na guerra para coisas como análise de imagens de satélite, detecção de ameaças cibernéticas e orientação de sistemas de defesa antimísseis. Mas a utilização de chatbots – a mesma tecnologia subjacente que milhares de milhões de pessoas utilizam para tarefas mundanas como escrever e-mails – está agora a ser utilizada no campo de batalha.
Em Novembro passado, a Anthropic fez parceria com a Palantir Technologies Inc., uma empresa de análise de dados que faz muito trabalho para o Pentágono, transformando o seu grande modelo de linguagem Claude no motor de raciocínio dentro de um sistema de apoio à decisão para os militares.
Então, em janeiro, a Anthropic apresentou uma proposta de US$ 100 milhões ao Pentágono para desenvolver tecnologia autônoma de enxame de drones controlada por voz, informou a Bloomberg News. A proposta da empresa: usar Claude para traduzir a intenção de um comandante em instruções digitais para coordenar uma frota de drones.
Sua proposta foi rejeitada, mas o concurso exigia muito mais do que apenas resumir relatórios de inteligência, como seria de esperar que um chatbot fizesse. Este contrato visava desenvolver “conscientização e compartilhamento relacionados ao alvo” e “lançamento até a rescisão” para enxames de drones potencialmente letais.
Terra de ninguém
Surpreendentemente, tudo isto tem acontecido num vácuo regulamentar e com tecnologia que é conhecida por cometer erros. As alucinações causadas por grandes modelos de linguagem são resultado de seu treinamento, quando são recompensados por buscarem uma resposta em vez de admitirem a incerteza. Alguns cientistas dizem que o desafio persistente da confabulação da IA pode nunca ser resolvido.
Esta não seria a primeira vez que sistemas de IA não confiáveis seriam usados na guerra. Lavender era um banco de dados baseado em IA usado para ajudar a identificar alvos militares associados ao Hamas em Gaza. Não era um modelo de linguagem grande, mas analisava grandes quantidades de dados de vigilância, como conexões sociais e histórico de localização, para atribuir a cada indivíduo uma pontuação de 1 a 100. Quando a pontuação de alguém ultrapassava um determinado limite, Lavender o sinalizava como alvo militar.
O problema é que Lavender errou 10% das vezes, de acordo com um relatório investigativo publicado pelo veículo israelense-palestino +972. “Cerca de 3.600 pessoas foram visadas por engano”, disse-me Mariarosaria Taddeo, professora de ética digital e tecnologia de defesa no Oxford Internet Institute.
“Existem vulnerabilidades incríveis nestes sistemas e uma falta de fiabilidade extrema… para algo tão dinâmico, sensível e humano como a guerra”, diz Elke Schwarz, professora de teoria política na Queen Mary University London e autora de Death Machines: The Ethics of Violent Technologies.
Schwarz salienta que a IA é frequentemente utilizada na guerra para acelerar as coisas, uma receita para resultados indesejados. Decisões mais rápidas são tomadas em maior escala e com menos escrutínio humano. Na última década e meia, o uso militar da IA tornou-se ainda mais opaco, diz ela.
E o sigilo está incorporado na forma como os laboratórios de IA operam, mesmo antes das aplicações de guerra. Essas empresas se recusam a divulgar quais dados seus modelos são treinados ou como seus sistemas chegam às conclusões.
É claro que as operações militares muitas vezes têm de ser mantidas em segredo para proteger os combatentes e manter os inimigos longe do rasto. Mas a defesa é fortemente regulamentada pelo direito humanitário internacional e pelas normas de teste de armas, que, em teoria, também deveriam abordar a utilização da inteligência artificial. No entanto, tais padrões estão ausentes ou são lamentavelmente inadequados.
Regras desatualizadas
Taddeo observa que o Artigo 36 da Convenção de Genebra exige que novos sistemas de armas sejam testados antes da implantação, mas um sistema de IA que aprende com o seu ambiente torna-se um novo sistema sempre que é atualizado. Isso torna quase impossível aplicar a regra.
Num mundo ideal, governos como os dos EUA divulgariam como estes sistemas são utilizados no campo de batalha, e há um precedente. Os americanos começaram a usar drones armados depois do 11 de Setembro e expandiram a sua utilização sob a administração de Barack Obama, recusando-se a reconhecer que tal programa existia.
Foram necessários quase 15 anos de fuga de documentos, pressão sustentada da imprensa e ações judiciais da União Americana pelas Liberdades Civis antes de a Casa Branca de Obama finalmente publicar, em 2016, o número de vítimas de ataques de drones. Foram amplamente vistos como subcontabilizados, mas permitiram que o público, o Congresso e os meios de comunicação social responsabilizassem o governo pela primeira vez.
O policiamento da IA será ainda mais difícil, exigindo ainda mais pressão pública e legislativa para forçar uma administração recalcitrante de Trump a criar um tipo semelhante de estrutura de relatórios.
O objetivo não seria revelar exatamente como Claude foi usado em algo como a Operação Epic Fury, mas divulgar os contornos gerais, segundo Schwarz. E, principalmente, divulgar quando algo dá errado.
O actual debate público sobre a rivalidade Antrópico-Pentágono – sobre o que é legal e ético para a IA quando se trata da vigilância em massa dos americanos ou da criação de armas totalmente autónomas – está a ignorar a questão maior sobre a falta de visibilidade de como a tecnologia já está a ser usada na guerra. Com sistemas tão novos e não testados propensos a cometer erros, isso é extremamente necessário. “Nós não decidimos como sociedade se estamos bem com uma máquina decidindo se um ser humano deve ser morto ou não”, diz Taddeo.
Pressionar essa transparência é fundamental antes que a IA na guerra se torne tão rotineira que ninguém pense mais em perguntar. Caso contrário, poderemos encontrar-nos à espera de um erro catastrófico e impor transparência apenas depois de o dano estar feito.
Parmy Olson é colunista da Bloomberg Opinion que cobre tecnologia. Ex-repórter do Wall Street Journal e da Forbes, ela é autora de “Supremacy: AI, ChatGPT and the Race That Will Change the World”. ©2026 Bloomberg LP Visite bloomberg.com/opinion. Distribuído pela Agência de Conteúdo Tribune.



