Início Tecnologia ‘Muito poderoso para o público’: por dentro da tentativa da Anthropic de...

‘Muito poderoso para o público’: por dentro da tentativa da Anthropic de vencer a guerra publicitária da IA

19
0
‘Muito poderoso para o público’: por dentro da tentativa da Anthropic de vencer a guerra publicitária da IA

Esta semana, a empresa de IA Anthropic disse que criou um modelo de IA tão poderoso que, por um sentimento de responsabilidade esmagadora, não iria divulgá-lo ao público.

O secretário do Tesouro dos EUA, Scott Bessent, convocou os dirigentes dos principais bancos para um bate-papo sobre o modelo Mythos. O deputado reformista do Reino Unido, Danny Kruger, escreveu uma carta ao governo instando-o a “se envolver com a empresa de IA Antrópico, cujo novo modelo de fronteira Claude Mythos poderia apresentar riscos catastróficos de segurança cibernética para o Reino Unido”. X enlouqueceu.

Outros foram mais céticos, incluindo o famoso crítico de IA Gary Marcus, que disse: “Dario (Amodei) tem muito mais habilidades técnicas do que Sam (Altman), mas parece ter se formado na mesma escola de exagero e exagero”, referindo-se aos CEOs da Anthropic e de sua rival, OpenAI.

Não está claro se a Antrópica construiu o deus da máquina. O que é mais evidente é que a startup de São Francisco, amplamente vista como a empresa de IA “responsável”, é brilhante em marketing.

Nos últimos meses, a Anthropic teve um perfil de 10.000 palavras na New Yorker, dois artigos no Wall Street Journal e a capa da revista Time, na qual o rosto de Amodei estava estampado, ao estilo de um poster de filme, acima do Pentágono e do secretário da Defesa dos EUA, Pete Hegseth.

O co-fundador da Amodei e da Anthropic, Jack Clark, apareceu em dois podcasts separados do New York Times em Fevereiro, reflectindo sobre questões como se a sua máquina estava consciente e se em breve poderia “destruir a economia”. O “filósofo residente” da empresa conversou com o WSJ sobre se Claude – um produto comercial usado para negociar criptomoedas e designar alvos de mísseis – tem um “senso de identidade”.

Dario Amodei “tem muito mais habilidades técnicas” do que o CEO da OpenAI, Sam Altman, disse um crítico de IA, “mas parece ter se formado na mesma escola de exagero e exagero”. Fotografia: Denis Balihouse/Reuters

Tudo isso aconteceu em meio a uma disputa entre a Anthropic e o departamento de defesa dos EUA, na qual a Anthropic, apesar de criar a ferramenta de IA usada pelo Pentágono para atacar o Irã, conseguiu parecer muito melhor do que a OpenAI, que se ofereceu para ajudar os militares dos EUA a fazerem a mesma coisa, mas com – talvez – menos barreiras de proteção.

Sua líder de mídia, Danielle Ghiglieri, conquistou vitórias no LinkedIn. “Tenho um orgulho infinito de trabalhar na Anthropic”, disse ela sobre a capa da Time da empresa, marcando os jornalistas envolvidos em uma postagem sobre a “corrida louca” para levar a história ao limite.

Assistir a um segmento do CBS 60 Minutes com Amodei “foi um daqueles momentos de beliscão”, disse ela. “O que tornou tudo significativo não foi apenas a plataforma. Foi ver a história que queríamos contar realmente acontecer.”

Sobre o perfil da New Yorker, do jornalista Gideon Lewis-Kraus, ela escreveu: “Eu estaria mentindo se dissesse que não estava nervosa para nosso primeiro encontro pessoalmente… trabalhar com alguém do calibre de Gideon significa ser pressionado a articular ideias que você ainda está formando, e aceitar esse desconforto”.

(“Aposto que é isso que todos dizem sobre você”, disse meu editor.)

Outros relações públicas de tecnologia perceberam.

“Eles estão claramente passando por um momento agora, mas as empresas que desenvolvem tecnologia que mudará o mundo merecem igual escrutínio”, disse um deles. “Eles vazaram acidentalmente seu próprio código-fonte na semana passada e, nesta semana, reivindicam a administração das ameaças cibernéticas com um novo modelo poderoso que só eles controlam. Quaisquer outras grandes empresas de tecnologia seriam ridicularizadas.”

A Anthropic divulgou acidentalmente parte do código-fonte interno de Claude no início de abril. “Nenhum dado ou credencial confidencial do cliente foi envolvido ou exposto”, afirmou.

O que tudo isso significa sobre o indubitavelmente poderoso Mythos da Antrópico?

As capacidades do modelo não foram “fundamentadas”, disse a Dra. Heidy Khlaaf, cientista-chefe de IA do AI Now Institute. “Divulgar uma postagem de marketing com linguagem propositalmente vaga que obscurece as evidências… coloca em questão se eles estão tentando angariar mais investimentos sem escrutínio.”

“Mythos é um desenvolvimento real e a Anthropic estava certa em tratá-lo com seriedade”, disse Jameison O’Reilly, especialista em segurança cibernética ofensiva. Mas, disse ele, algumas das alegações da Anthropic, como a de que encontrou milhares de “vulnerabilidades de dia zero” nos principais sistemas operacionais, não eram tão significativas para as considerações de segurança cibernética do mundo real.

Uma vulnerabilidade de dia zero é uma falha em software ou hardware desconhecida por seus desenvolvedores.

“Passamos mais de 10 anos obtendo acesso autorizado a centenas de organizações – bancos, governos, infraestruturas críticas, empresas globais”, disse O’Reilly. “Nesses 10 anos, ao longo de centenas de compromissos, o número de vezes que precisámos de uma vulnerabilidade de dia zero para atingir o nosso objetivo foi extremamente pequeno.”

Manifestantes em São Francisco pediram às empresas de IA que interrompessem o desenvolvimento no mês passado, marchando até os escritórios da Anthropic e da OpenAI. Fotografia: Manuel Orbegozo/Reuters

Outros motivos podem ter contribuído para a decisão da Anthropic de não lançar o Mythos.

A empresa tem recursos limitados e parece estar lutando para oferecer capacidade computacional suficiente para permitir que todos os seus assinantes utilizem seus modelos. Ele introduziu limites de uso para o popular Claude. Recentemente, ele disse que os usuários teriam que adquirir capacidade extra além de suas assinaturas para executar ferramentas de terceiros, como o OpenClaw. Neste ponto, pode simplesmente não ter a infra-estrutura para apoiar o lançamento de uma nova criação sensacionalista.

Tal como a OpenAI, a Anthropic está numa corrida para angariar milhares de milhões de dólares e capturar um mercado – ainda mal definido – de pessoas que podem recorrer aos seus chatbots como amigos, parceiros românticos ou assistentes profundamente personalizados, e de empresas que podem utilizá-los para substituir funcionários humanos.

Mas as diferenças nestes produtos são marginais e impressionistas, principalmente devido a atributos difíceis de quantificar, como “senso de identidade” e “alma” – ou melhor, o que se passa por estes num agente de IA. A batalha é pelos corações e mentes.

“Mythos é um anúncio estratégico para mostrar que eles estão abertos para negócios”, disse Khlaaf, dizendo que a limitação de liberação da Anthropic impediu que especialistas independentes avaliassem as alegações da empresa.

Ela sugeriu que podemos estar “vendo o mesmo manual de iscas e trocas que foi usado pela OpenAI, onde a segurança é uma ferramenta de relações públicas para ganhar a confiança do público antes que os lucros sejam priorizados” e: “A publicidade antrópica conseguiu obscurecer melhor essa mudança do que seus rivais”.

Fuente