A Anthropic disparou o alarme ao divulgar as terríveis capacidades de “Claude Mythos” – com executivos alertando que o novo modelo de IA é tão perigoso que causaria uma onda de hacks catastróficos e ataques terroristas se fosse divulgado ao público em geral.
Numa análise de pesadelo, a própria Anthropic revelou que a Mythos – se caísse em mãos erradas – poderia facilmente explorar infra-estruturas críticas como redes eléctricas, centrais eléctricas e hospitais. O modelo já “encontrou milhares de vulnerabilidades de alta gravidade, incluindo algumas em todos os principais sistemas operacionais e navegadores da web”, segundo a empresa de IA.
Os críticos acusaram o CEO da Anthropic, Dario Amodei, de usar medos de segurança para promover os produtos da empresa. Bloomberg via Getty Images
Em vez de um lançamento amplo, a Anthropic, liderada pelo CEO Dario Amodei, revelou o “Projeto Glasswing”, um plano para fornecer o modelo a um grupo escolhido a dedo de cerca de 40 empresas, incluindo Amazon, Google, Apple, Nvidia, CrowdStrike e JPMorgan Chase, que receberão acesso antecipado ao Mythos para que possam usá-lo para encontrar e corrigir falhas de segurança.
A implementação apenas corporativa é provavelmente a melhor maneira possível da Anthropic de “dar aos caras para consertar os buracos, mas não aos hackers que vão encontrar mais buracos”, disse Roman Yampolskiy, pesquisador de segurança de IA da Universidade de Louisville, ao Post.
“Muito provavelmente, é claro, haverá algum tipo de vazamento”, disse ele. “Qualquer nível de restrição é preferível ao acesso totalmente aberto. Idealmente, eu adoraria que isso não fosse desenvolvido. E não é como se eles fossem parar.
“Isso é exatamente o que esperamos desses modelos – eles se tornarão melhores no desenvolvimento de ferramentas de hacking, armas biológicas, armas químicas, armas novas que nem podemos imaginar”, acrescentou Yampolskiy.
Num caso detalhado nos testes da Anthropic, a Mythos saiu de uma “caixa de areia” segura destinada a restringir o acesso à Internet – e um investigador só descobriu “ao receber um e-mail inesperado da modelo enquanto comia uma sanduíche num parque”. Em outro caso, Mythos encontrou uma falha no sistema operacional OpenBSD que estava escondida à vista de todos há 27 anos.
Apesar dos riscos, a Anthropic argumenta que o Project Glasswing ajudará as capacidades defensivas dos EUA, à medida que os adversários no Irão, na China e na Rússia se tornam cada vez mais agressivos no ataque a infra-estruturas críticas.
Um funcionário da Anthropic disse que a empresa “se concentra em organizações cujo software representa a maior parte da superfície compartilhada de ataques cibernéticos do mundo.
“Essas são as empresas que constroem e mantêm os sistemas operacionais, navegadores, plataformas em nuvem e infraestrutura financeira das quais bilhões de pessoas dependem todos os dias”, disse o funcionário. “Quando você encontra uma vulnerabilidade em um de seus sistemas e ele é corrigido, esse patch protege todos que usam esse software – em muitos casos, centenas de milhões de pessoas.”
Cerca de 40 empresas participam do Projeto Glasswing. NurPhoto via Getty Images
A Antrópico disse que está em discussões ativas com autoridades do governo dos EUA sobre como a Mythos pode ajudar as capacidades cibernéticas do país – tanto ofensivas quanto defensivas.
“Claude Mythos Preview demonstra o que agora é possível para os defensores em grande escala, e os adversários inevitavelmente tentarão explorar as mesmas capacidades”, disse Elia Zaitsev, diretor de tecnologia da CrowdStrike.
Embora o Mythos pareça ser um grande avanço tecnológico, os críticos não têm certeza se as ações da Antrópico – incluindo o anúncio público espalhafatoso – correspondem à sua retórica sobre os riscos.
CEO da Anthropic Dario Amodei, discursa no encontro no AI Impact Summit, em Nova Delhi, Índia, 19 de fevereiro de 2026. REUTERS
Perry Metzger, presidente da Alliance for the Future, um grupo político de IA com sede em Washington, DC, observou que o entusiasmo sobre o Mythos como produto “se espalhou como um incêndio” como resultado do alerta da empresa.
“É melhor você pagar cuidadosamente pelo acesso ao Glasswing ou participar dele, porque somente eles são responsáveis o suficiente para decidir quem deve ou não ter acesso. Afinal, eles são os especialistas”, disse Metzger sarcasticamente. “Achei tudo muito interessante.”
Como noticiou o Post, os críticos da Anthropic, incluindo o conselheiro de IA do Presidente Trump, David Sacks, e outros na Casa Branca, alegaram que os avisos de segurança da empresa são na verdade uma tentativa elaborada de “captura regulamentar” – jargão de Silicon Valley para elaborar as regras de tal forma que elas se beneficiem e os seus rivais lutem.
“Em todos os momentos da conversa sobre o surgimento da IA, Dario Amodei acredita que ele, e só ele, está qualificado para determinar o que esta tecnologia pode fazer, quem pode acessá-la”, disse Nathan Leamer, diretor executivo do grupo de defesa Build American AI. “Só ele é o Salomão moderno que decidirá qual entidade irá regulá-lo. Quem precisa da praça pública?”
Claude Mythos é o mais recente modelo de IA da Anthropic. Christopher Sadowski para o NY Post
Outro membro da indústria de tecnologia, que falou ao Post sob condição de anonimato, apontou que a OpenAI alertou de forma semelhante em 2019 que o GPT-2, uma versão inicial de seu modelo de chatbot, era perigoso demais para ser lançado.
Amodei e o principal executivo de políticas da Anthropic, Jack Clark, trabalhavam na OpenAI na época.
A fonte especulou que o lançamento limitado poderia ter mais a ver com a luta da Anthropic para acompanhar a demanda por computação do que com temores de segurança.
“Eles estão tentando desviar-se do fato de que não podem servir o modelo porque não têm computação”, disse a pessoa.



