A startup de IA Anthropic está investigando relatos de que um grupo de usuários não autorizados obteve acesso ao seu modelo Claude Mythos, um poderoso sistema de IA que foi deliberadamente lançado apenas para um pequeno círculo de empresas confiáveis devido às suas capacidades avançadas de segurança cibernética.
Um relatório da Bloomberg revela que a Anthropic divulgou na terça-feira que estava examinando alegações de que indivíduos acessaram o modelo por meio de um sistema designado para empresas terceirizadas que realizam trabalho em nome da Anthropic. Em comunicado, a empresa disse: “Estamos investigando um relatório alegando acesso não autorizado ao Claude Mythos Preview por meio de um de nossos ambientes de fornecedores terceirizados”.
O incidente levanta sérias questões sobre se a Anthropic, avaliada em aproximadamente 380 mil milhões de dólares, pode proteger eficazmente as suas tecnologias mais poderosas de caírem nas mãos de agentes maliciosos. A empresa restringiu intencionalmente o lançamento do Claude Mythos Preview a um grupo seleto de empresas de tecnologia, citando explicitamente preocupações de que o modelo pudesse ser utilizado indevidamente para lançar ataques cibernéticos em escala e velocidade superiores às capacidades humanas.
Um indivíduo que obteve acesso não autorizado supostamente aproveitou suas permissões como contratado da Anthropic para acessar o Mythos. A empresa afirmou não ter evidências de atividades que se estendessem além do “ambiente do fornecedor”, a infraestrutura que terceiros usam para acessar sistemas para desenvolvimento de modelos. Os laboratórios de IA frequentemente empregam prestadores de serviços terceirizados para responsabilidades como testes de modelos, embora a Anthropic não tenha identificado qual fornecedor específico estava envolvido neste incidente.
A violação de segurança intensifica as ansiedades existentes em torno da Mythos, que já gerou turbulência significativa nos mercados e catalisou conversas de alto nível entre instituições financeiras e órgãos reguladores globais. Especialistas em segurança alertaram que, se adquirido por partes hostis, o modelo poderá permitir que hackers identifiquem e explorem vulnerabilidades de software mais rapidamente do que as organizações conseguem implantar patches e correções.
A Anthropic apresentou a Mythos no início deste mês a uma lista cuidadosamente escolhida de parceiros corporativos, incluindo Amazon, Microsoft, Apple, Cisco e CrowdStrike. A empresa indicou que esses colaboradores teriam a oportunidade de detectar e proteger vulnerabilidades cibernéticas usando os recursos sofisticados da Mythos antes de qualquer lançamento público mais amplo.
O Breitbart News relatou anteriormente que a Anthropic sofreu uma grave violação de segurança quando vazou acidentalmente aspectos de seu código-fonte online:
o último incidente ocorre poucos dias depois que a Fortune revelou que a Anthropic havia inadvertidamente tornado quase 3.000 arquivos internos acessíveis ao público, incluindo um rascunho de postagem no blog descrevendo um futuro modelo de IA chamado “Mythos” ou “Capivara”, que a empresa alertou que apresenta sérios riscos de segurança cibernética.
Este segundo vazamento expôs aproximadamente 500.000 linhas de código contidas em aproximadamente 1.900 arquivos. Quando contatada para comentar, a Anthropic reconheceu que “algum código-fonte interno” havia vazado como parte de um “lançamento do Código Claude”. Um porta-voz da empresa declarou: “Nenhum dado ou credencial confidencial do cliente foi envolvido ou exposto. Este foi um problema de embalagem de lançamento causado por erro humano, não uma violação de segurança. Estamos implementando medidas para evitar que isso aconteça novamente.”
O best-seller instantâneo Código Vermelho: A Esquerda, a Direita, a China e a Corrida para Controlar a IAescrito pelo diretor de mídia social do Breitbart News, Wynton Hall, serve como um modelo para os conservadores criarem políticas eficazes em torno da IA, não apenas para a nação, mas também para sua família. Isto se torna ainda mais importante quando os próprios gigantes da IA estão lutando para proteger seus modelos de IA.
A senadora Marsha Blackburn (R-TN), eleita uma das 100 pessoas mais influentes em IA pela TIME, elogiou o Code Red como uma “leitura obrigatória”. Ela acrescentou: “Poucos entendem nossa luta conservadora contra a Big Tech como Hall”, tornando-o “excepcionalmente qualificado para examinar como podemos utilizar melhor o enorme potencial da IA, garantindo ao mesmo tempo que ela não explora crianças, criadores e conservadores”. O premiado jornalista investigativo e fundador do Public, Michael Shellenberger, chama Code Red de “iluminador”, “alarmante” e descreve o livro como “um ponto de partida essencial para aqueles que desejam subverter os planos autocráticos da Big Tech antes que seja tarde demais”.
Leia mais na Bloomberg aqui.
Lucas Nolan é repórter do Breitbart News que cobre questões de IA, liberdade de expressão e censura online.


