Início Notícias Trump ordena que os militares parem de usar o chatbot Claude em...

Trump ordena que os militares parem de usar o chatbot Claude em confrontos sobre a segurança da IA

15
0
O secretário de Defesa dos EUA, Pete Hegseth, designou a Anthropic e seu CEO Dario Amodei como um risco na cadeia de suprimentos.

Matt O’Brien e Konstantin Toropin

28 de fevereiro de 2026 – 13h30

Salvar

Você atingiu o número máximo de itens salvos.

Remova itens da sua lista salva para adicionar mais.

Salve este artigo para mais tarde

Adicione artigos à sua lista salva e volte a eles a qualquer momento.

Entendi

AAA

Washington: A administração Trump ordenou que todas as agências dos EUA parassem de usar a tecnologia de inteligência artificial da Anthropic e impôs outras penalidades importantes em um conflito público incomum entre o governo dos EUA e a empresa sobre a segurança da IA.

O presidente Donald Trump, o secretário de Defesa Pete Hegseth e outras autoridades recorreram às redes sociais para castigar a Anthropic por não permitir o uso militar irrestrito de sua tecnologia de IA até o prazo de sexta-feira (horário dos EUA), acusando-a de colocar em risco a segurança nacional.

O secretário de Defesa dos EUA, Pete Hegseth, designou a Anthropic e seu CEO Dario Amodei como um risco na cadeia de suprimentos.

O Pentágono deseja usar o chatbot Claude da Anthropic para qualquer finalidade dentro dos limites legais – mas sem quaisquer restrições de uso da Anthropic. A empresa insistiu que Claude não fosse usado para vigilância em massa contra americanos ou em operações de armas totalmente autónomas.

A ordem de Trump veio depois que o presidente-executivo da Anthropic, Dario Amodei, se recusou a recuar, citando preocupações de que os produtos da empresa pudessem ser usados ​​de maneiras que violariam suas salvaguardas.

“Não precisamos disso, não queremos isso e não faremos negócios com eles novamente!” Trump disse nas redes sociais.

Artigo relacionado

Natalie MacDonald resiste à narrativa de robôs roubando empregos.

Hegseth considerou a empresa um “risco da cadeia de abastecimento”, uma designação normalmente aplicada a adversários estrangeiros que poderiam inviabilizar as parcerias críticas da empresa com outras empresas.

A Anthropic disse que lutaria contra qualquer designação formal no tribunal, descrevendo-a em um comunicado como “uma ação sem precedentes – historicamente reservada aos adversários dos EUA, nunca antes aplicada publicamente a uma empresa americana”.

O esforço do governo para afirmar o domínio sobre a tomada de decisões internas da Anthropic surge no meio de um conflito mais amplo sobre o papel da IA ​​na segurança nacional e de preocupações sobre como máquinas cada vez mais capazes poderiam ser utilizadas em situações de alto risco envolvendo força letal, informações sensíveis ou vigilância governamental.

De acordo com o The New York Times, embora muitos usos militares da inteligência artificial ainda estejam em fase de desenvolvimento, os modelos já são usados ​​ativamente para análise de inteligência.

Remover Claude dos computadores do governo prejudicaria os analistas da Agência de Segurança Nacional que examinam as interceptações de comunicações no exterior e poderia dificultar a busca dos analistas da CIA por padrões em relatórios de inteligência, sugere o jornal.

Citando antigos funcionários, o Times disse que os líderes da CIA estão ansiosos por encontrar uma forma de continuar a usar Claude, o que acelerou o seu trabalho e aprofundou a sua análise. Antes dos comentários de Trump, as autoridades alertaram que qualquer ordem presidencial poderia forçar a agência a procurar outras soluções.

Trump ataca

Trump disse que a Anthropic cometeu um erro ao tentar fortalecer o Pentágono. Escrevendo no Truth Social, ele disse que a maioria das agências deve parar imediatamente de usar a IA da Anthropic, mas deu ao Pentágono um período de seis meses para eliminar gradualmente a tecnologia que já está incorporada em plataformas militares.

“Os Estados Unidos da América nunca permitirão que uma esquerda radical e uma empresa acordada ditem como nossos grandes militares lutam e vencem guerras!” ele escreveu em letras maiúsculas.

Depois de meses de negociações privadas explodirem em debate público esta semana, a Anthropic disse na quinta-feira que a nova linguagem contratual do governo permitiria que “salvaguardas fossem desconsideradas à vontade”, às quais Amodei disse que sua empresa “não pode aderir em sã consciência”.

Páginas do site Antrópico. Páginas do site Antrópico. PA

A Antrópica pode se dar ao luxo de perder o contrato. Mas as ações do governo representaram riscos mais amplos no auge da ascensão meteórica da empresa, de um laboratório de pesquisa em ciência da computação pouco conhecido em São Francisco a uma das start-ups mais valiosas do mundo.

A decisão do presidente foi precedida por horas em que altos funcionários nomeados por Trump, do Pentágono e do Departamento de Estado, recorreram às redes sociais para criticar a Anthropic, mas as suas queixas apresentavam contradições.

O principal porta-voz do Pentágono, Sean Parnell, disse nas redes sociais na quinta-feira que a posição da Anthropic estava “colocando em risco operações militares críticas e potencialmente colocando nossos combatentes em risco”.

Enquanto isso, Hegseth disse na sexta-feira que o Pentágono “deve ter acesso total e irrestrito aos modelos da Antrópico para todos os fins LEGAIS em defesa da República”.

Artigo relacionado

Este vídeo gerado por IA de uma briga entre Tom Cruise e Brad Pitt deixou Hollywood muito preocupada.

A escolha de Hegseth de designar a Anthropic como um risco na cadeia de abastecimento utiliza uma ferramenta administrativa concebida para impedir que empresas pertencentes a adversários dos EUA vendam produtos prejudiciais aos interesses americanos.

O senador Mark Warner, o principal democrata no comité de inteligência do Senado, observou que esta dinâmica, “combinada com uma retórica inflamatória que ataca essa empresa, levanta sérias preocupações sobre se as decisões de segurança nacional estão a ser conduzidas por análises cuidadosas ou por considerações políticas”.

A Anthropic não respondeu imediatamente a um pedido de comentário sobre as ações da administração Trump.

Disputa abala o Vale do Silício

A disputa surpreendeu os desenvolvedores no Vale do Silício, onde capitalistas de risco, proeminentes cientistas de IA e muitos trabalhadores dos principais rivais da Anthropic – OpenAI e Google – apoiaram a posição da Amodei em cartas abertas e outros fóruns.

A medida provavelmente beneficiará o chatbot concorrente de Elon Musk, Grok, ao qual o Pentágono planeja conceder acesso a redes militares classificadas, e poderá servir como um alerta ao Google e à OpenAI, cujos contratos para fornecer suas ferramentas de IA aos militares ainda estão em evolução.

Musk ficou do lado da administração Trump, dizendo em sua plataforma de mídia social X que “Anthropic odeia a civilização ocidental”.

Mas um dos rivais mais ferozes da Amodei, o presidente-executivo da OpenAI, Sam Altman, ficou do lado da Antrópico e questionou a ação “ameaçadora” do Pentágono em uma entrevista à CNBC e em uma carta aos funcionários, dizendo que a OpenAI compartilhava as mesmas linhas vermelhas. Amodei já trabalhou para a OpenAI antes de ele e outros líderes da OpenAI saírem para formar a Anthropic em 2021.

“Apesar de todas as diferenças que tenho com a Anthropic, confio principalmente neles como empresa e acho que eles realmente se preocupam com a segurança”, disse Altman à CNBC, horas antes de reunir os funcionários para uma reunião geral na sexta-feira (horário dos EUA).

O CEO da OpenAIs, Sam Altman, apoiou a posição da Anthropic em relação às salvaguardas de IA. O CEO da OpenAIs, Sam Altman, apoiou a posição da Anthropic em relação às salvaguardas de IA. PA

O general reformado da Força Aérea Jack Shanahan, ex-líder das iniciativas de IA do Pentágono, escreveu nas redes sociais esta semana que “pintar um alvo na Antrópico gera manchetes picantes, mas todos perdem no final”.

Shanahan disse que Claude já estava sendo amplamente utilizado em todo o governo, inclusive em ambientes classificados, e que as linhas vermelhas da Anthropic eram “razoáveis”. Ele disse que os grandes modelos de linguagem de IA que alimentam chatbots como Claude, Grok e ChatGPT também “não estavam prontos para o horário nobre em ambientes de segurança nacional”, especialmente para armas totalmente autônomas.

A Anthropic “não está tentando bancar o fofo aqui”, escreveu ele no LinkedIn. “Você não encontrará um sistema com alcance mais amplo e profundo entre as forças armadas.”

PA

Receba uma nota diretamente de nossos correspondentes estrangeiros sobre o que está nas manchetes em todo o mundo. Inscreva-se em nosso boletim informativo semanal What in the World.

Salvar

Você atingiu o número máximo de itens salvos.

Remova itens da sua lista salva para adicionar mais.

Dos nossos parceiros

Fuente