Em pouco mais de uma semana, as negociações sobre o uso da tecnologia Claude da Anthropic pelo Pentágono fracassaram, a administração Trump designou a Anthropic como um risco para a cadeia de abastecimento e a empresa de IA disse que iria lutar contra essa designação em tribunal.
Enquanto isso, a OpenAI anunciou rapidamente um acordo próprio, gerando uma reação negativa que fez com que os usuários desinstalassem o ChatGPT e empurrassem Claude da Anthropic para o topo das paradas da App Store. E pelo menos um executivo da OpenAI pediu demissão devido à preocupação de que o anúncio tenha sido apressado sem as proteções apropriadas.
No último episódio do podcast Equity do TechCrunch, Kirsten Korosec, Sean O’Kane e eu discutimos o que isso significa para outras startups que buscam trabalhar com o governo federal, especialmente o Pentágono, enquanto Kirsten se perguntava: “Será que veremos uma pequena mudança de tom?”
Sean destacou que esta é uma situação incomum em vários aspectos, em parte porque OpenAI e Claude fabricam produtos sobre os quais “ninguém consegue calar a boca”. E, o que é crucial, esta é uma disputa sobre “como as suas tecnologias estão a ser usadas ou não para matar pessoas”, pelo que naturalmente irá atrair mais escrutínio.
Ainda assim, disse Kirsten, esta é uma situação que deveria “dar uma pausa a qualquer startup”.
Leia uma prévia de nossa conversa, editada para maior extensão e clareza, abaixo.
Kirsten: Estou me perguntando se outras startups estão começando a olhar para o que está acontecendo com o governo federal, especificamente o Pentágono e a Antrópico, nesse debate e luta livre, e (fazer) uma pausa sobre se querem ir atrás de dólares federais. Veremos uma pequena mudança de tom?
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
Sean: Eu também me pergunto sobre isso. Penso que não, até certo ponto, no curto prazo, mesmo porque quando realmente tentamos pensar em todas as diferentes empresas, sejam elas startups ou mesmo empresas Fortune 500 mais estabelecidas que trabalham com o governo e em particular com o Departamento de Defesa ou o Pentágono, (para) muitas delas, esse trabalho passa despercebido.
A General Motors fabrica veículos de defesa para o Exército e já faz isso há muito tempo e trabalhou em todas as versões elétricas desses veículos e nas versões autônomas. Há coisas assim que acontecem o tempo todo e nunca atingem o zeitgeist. Acho que o problema que a OpenAI e a Anthropic enfrentaram na semana passada é que essas são empresas que fabricam produtos que muitas pessoas usam – e também, mais importante, (dos quais) ninguém consegue calar a boca.
Portanto, há naturalmente um grande destaque sobre eles, que destaca o seu envolvimento a um nível que penso que a maioria das outras empresas que estão a contratar com o governo federal – e, em particular, qualquer um dos elementos de guerra do governo federal – não tem necessariamente de lidar.
A única ressalva que acrescentarei é que muito do calor em torno desta discussão entre a Anthropic e a OpenAI e o Pentágono é muito especificamente sobre como as suas tecnologias estão a ser usadas ou não para matar pessoas, ou em partes das missões que estão a matar pessoas. Não é apenas a atenção dada a eles e a familiaridade que temos com suas marcas, há um elemento extra que considero mais abstrato quando você pensa na General Motors como uma empresa de defesa ou algo assim.
Não acho que veremos a Applied Intuition ou qualquer uma dessas outras empresas que se enquadram como de uso duplo recuar muito, só porque não vejo foco nisso e simplesmente não há o tipo de compreensão compartilhada de qual poderia ser esse impacto.
Antônio: Essa história é única e específica para essas empresas e personalidades de várias maneiras. Quero dizer, tem havido muitas reflexões realmente interessantes sobre: Qual é o papel da tecnologia no governo? (De) IA no governo? E acho que todas essas são perguntas boas e que valem a pena fazer e explorar.
Acho também, porém, que esta é uma lente muito curiosa para examinar algumas dessas coisas, porque Anthropic e OpenAI não são realmente tão diferentes em muitos aspectos ou nas posturas que assumem. Não é como se uma empresa dissesse: “Ei, não quero trabalhar com o governo” e a outra dissesse: “Sim, quero”. Ou alguém está dizendo: “Você pode fazer o que quiser”. e (a outra é) dizer: “Não, quero ter restrições”. Ambos, pelo menos publicamente, estão dizendo: “Queremos restrições sobre como nossa IA é usada”. Parece que a Anthropic está se esforçando muito mais sobre: Você não pode alterar os termos desta forma.
E além disso, também parece haver uma camada de personalidade onde, o CEO da Anthropic e, Emil Michael – que muitos leitores do TechCrunch devem se lembrar de seus dias de Uber, e agora é (diretor de tecnologia do Departamento de Defesa). Aparentemente, eles realmente não gostam um do outro. Alegadamente.
Sean: Sim, há aqui um grande elemento “as meninas estão brigando” que não devemos ignorar.
Kirsten: Sim, um pouco. Existe, mas as implicações são um pouco mais fortes do que isso. Novamente, para recuar um pouco, o que estamos falando aqui é o Pentágono e a Antrópico entrando em uma disputa na qual a Antrópico parece ter perdido, embora eu deva dizer que eles ainda estão sendo muito usados pelos militares. Eles são considerados uma tecnologia crucial, mas o OpenAI meio que interveio, e isso está evoluindo e provavelmente mudará quando este episódio for lançado.
O retrocesso tem sido interessante para a OpenAI, onde vimos muitas desinstalações do ChatGPT, acho que aumentaram 295% depois que a OpenAI fechou o acordo com o Departamento de Defesa.
Para mim, tudo isto é ruído para o aspecto realmente crítico e perigoso, que é o facto de o Pentágono estar a tentar alterar os termos existentes num contrato existente. E isso é realmente importante e deveria fazer qualquer startup hesitar, porque a máquina política que está acontecendo agora, especialmente com o DoD, parece ser diferente. Isso não é normal. Os contratos levam uma eternidade para serem firmados no nível governamental e o fato de eles estarem tentando alterar esses termos é um problema.



