Sexta-feira à tarde, no momento em que esta entrevista estava em andamento, um alerta de notícia apareceu na tela do meu computador: a administração Trump estava rompendo laços com a Anthropic, a empresa de IA de São Francisco fundada em 2021 por Dario Amodei e outros ex-pesquisadores da OpenAI que deixaram por questões de segurança. O secretário da Defesa, Pete Hegseth, invocou uma lei de segurança nacional – concebida para combater ameaças estrangeiras à cadeia de abastecimento – para colocar a empresa na lista negra de fazer negócios com o Pentágono, depois de a Amodei se ter recusado a permitir que a tecnologia da Anthropic fosse utilizada para vigilância em massa de cidadãos dos EUA ou para drones armados autónomos que poderiam seleccionar e matar alvos sem intervenção humana.
Foi uma sequência de cair o queixo. A Anthropic está agora prestes a perder um contrato no valor de até 200 milhões de dólares, bem como a ser impedida de trabalhar com outros empreiteiros de defesa depois de o Presidente Trump ter publicado no Truth Social orientando todas as agências federais a “cessar imediatamente todo o uso da tecnologia Antrópica”. (Desde então, a Anthropic disse que desafiará o Pentágono em tribunal, considerando a designação de risco da cadeia de abastecimento legalmente infundada e “nunca antes aplicada publicamente a uma empresa americana”.)
Max Tegmark passou a maior parte de uma década alertando que a corrida para construir sistemas de IA cada vez mais poderosos está ultrapassando a capacidade do mundo de governá-los. O físico sueco-americano e professor do MIT fundou o Future of Life Institute em 2014. Em 2023, ele ajudou a organizar uma carta aberta – assinada por mais de 33.000 pessoas, incluindo Elon Musk – pedindo uma pausa no desenvolvimento avançado de IA.
A sua visão da crise antrópica é implacável: a empresa, tal como os seus rivais, plantou as sementes da sua própria situação. O argumento da Tegmark não começa com o Pentágono, mas com uma decisão tomada anos antes – uma escolha, partilhada por toda a indústria, de resistir à regulamentação vinculativa. Anthropic, OpenAI, Google DeepMind e outros há muito prometem governar-se de forma responsável. No início desta semana, a Anthropic até abandonou o princípio central do seu próprio compromisso de segurança – a sua promessa de não lançar sistemas de IA cada vez mais poderosos até que a empresa estivesse confiante de que não causariam danos.
Agora, na ausência de regras, não há muito para proteger estes jogadores, diz Tegmark. Aqui está mais dessa entrevista, editada para maior extensão e clareza. Você pode ouvir a conversa completa na próxima semana no podcast StrictlyVC Download do TechCrunch.
Quando você viu essa notícia agora há pouco sobre a Antrópica, qual foi sua primeira reação?
O caminho para o inferno está pavimentado de boas intenções. É muito interessante pensar numa década atrás, quando as pessoas estavam tão entusiasmadas com a forma como iríamos criar inteligência artificial para curar o cancro, para aumentar a prosperidade na América e tornar a América forte. E aqui estamos agora, onde o governo dos EUA está chateado com esta empresa por não querer que a IA seja usada para vigilância doméstica em massa dos americanos, e também por não querer ter robôs assassinos que possam autonomamente – sem qualquer intervenção humana – decidir quem será morto.
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
A Anthropic apostou toda a sua identidade em ser uma empresa de IA que prioriza a segurança e, ainda assim, estava colaborando com agências de defesa e inteligência (desde pelo menos 2024). Você acha que isso é contraditório?
É contraditório. Se eu puder dar uma opinião um pouco cínica sobre isso – sim, a Anthropic tem sido muito boa em se promover como uma questão de segurança. Mas se você realmente olhar para os fatos e não para as afirmações, o que verá é que Anthropic, OpenAI, Google DeepMind e xAI falaram muito sobre como se preocupam com a segurança. Nenhum deles apoiou regulamentações de segurança vinculativas como fazemos em outras indústrias. E todas estas quatro empresas quebraram agora as suas próprias promessas. Primeiro tivemos o Google – este grande slogan, ‘Não seja mau’. Então eles abandonaram isso. Depois abandonaram outro compromisso mais longo que basicamente dizia que prometiam não causar danos à IA. Eles abandonaram isso para que pudessem vender IA para vigilância e armas. A OpenAI acabou de retirar a palavra segurança de sua declaração de missão. xAI desligou toda a sua equipe de segurança. E agora a Anthropic, no início da semana, abandonou seu compromisso de segurança mais importante – a promessa de não lançar sistemas poderosos de IA até que tivessem certeza de que não causariam danos.
Como é que as empresas que assumiram compromissos de segurança tão importantes acabaram nesta posição?
Todas estas empresas, especialmente a OpenAI e a Google DeepMind, mas até certo ponto também a Anthropic, têm feito lobby persistentemente contra a regulamentação da IA, dizendo: ‘Apenas confie em nós, vamos regular-nos a nós próprios.’ E eles fizeram lobby com sucesso. Portanto, neste momento temos menos regulamentação sobre sistemas de IA na América do que sobre sanduíches. Você sabe, se você quiser abrir uma lanchonete e o inspetor de saúde encontrar 15 ratos na cozinha, ele não deixará você vender nenhum sanduíche até que você o prepare. Mas se você disser: ‘Não se preocupe, não vou vender sanduíches, vou vender namoradas com IA para crianças de 11 anos, e elas foram associadas a suicídios no passado, e então vou lançar algo chamado superinteligência que pode derrubar o governo dos EUA, mas tenho um bom pressentimento sobre o meu’ – o inspetor tem que dizer: ‘Tudo bem, vá em frente, apenas não venda sanduíches.’
Há regulamentação de segurança alimentar e nenhuma regulamentação de IA.
E sinto que todas essas empresas realmente compartilham a culpa. Porque se eles tivessem aceitado todas essas promessas que fizeram naquela época sobre como seriam tão seguros e bonzinhos, e se reunissem, e depois fossem ao governo e dissessem: ‘Por favor, aceite nossos compromissos voluntários e transforme-os em lei dos EUA que vincula até mesmo nossos concorrentes mais desleixados’ – isso teria acontecido. Estamos num completo vácuo regulatório. E sabemos o que acontece quando há uma amnistia corporativa completa: temos a talidomida, temos as empresas de tabaco a empurrar cigarros para as crianças, temos o amianto que causa cancro do pulmão. Portanto, é meio irônico que sua própria resistência em ter leis que digam o que é certo ou não fazer com a IA esteja agora voltando e os mordendo.
Não existe nenhuma lei neste momento contra a construção de IA para matar americanos, então o governo pode simplesmente solicitá-la de repente. Se as próprias empresas tivessem dito anteriormente: ‘Queremos esta lei’, não estariam nesta situação. Eles realmente deram um tiro no pé.
O contra-argumento das empresas é sempre a corrida com a China – se as empresas americanas não fizerem isso, Pequim o fará. Esse argumento é válido?
Vamos analisar isso. O argumento mais comum dos lobistas das empresas de IA – eles são agora mais bem financiados e mais numerosos do que os lobistas da indústria dos combustíveis fósseis, da indústria farmacêutica e do complexo industrial militar juntos – é que sempre que alguém propõe qualquer tipo de regulamentação, eles dizem: “Mas a China”. Então vamos dar uma olhada nisso. A China está em processo de banir completamente as namoradas com IA. Não apenas limites de idade – eles pretendem banir toda IA antropomórfica. Por que? Não porque queiram agradar à América, mas porque sentem que isto está a prejudicar a juventude chinesa e a enfraquecer a China. Obviamente, isso também está enfraquecendo a juventude americana.
E quando as pessoas dizem que temos de correr para construir superinteligência para podermos vencer a China – quando não sabemos realmente como controlar a superinteligência, de modo que o resultado padrão é que a humanidade perca o controle da Terra para máquinas alienígenas – adivinhe? O Partido Comunista Chinês realmente gosta de controle. Quem em sã consciência pensa que Xi Jinping vai tolerar que alguma empresa chinesa de IA construa algo que derrube o governo chinês? Sem chance. É claramente muito mau para o governo americano também se este for derrubado num golpe de Estado pela primeira empresa americana a construir superinteligência. Esta é uma ameaça à segurança nacional.
Este é um enquadramento convincente – a superinteligência como uma ameaça à segurança nacional, não como um trunfo. Você vê essa visão ganhando força em Washington?
Acho que se as pessoas na comunidade de segurança nacional ouvirem Dario Amodei descrever a sua visão – ele fez um discurso famoso onde diz que em breve teremos um país de génios num centro de dados – poderão começar a pensar: espere, Dario acabou de usar a palavra “país”? Talvez eu devesse colocar aquele país de gênios em um data center na mesma lista de ameaças que estou monitorando, porque isso parece ameaçador para o governo dos EUA. E penso que muito em breve, um número suficiente de pessoas na comunidade de segurança nacional dos EUA irá perceber que a superinteligência incontrolável é uma ameaça, não uma ferramenta. Isto é totalmente análogo à Guerra Fria. Houve uma corrida pelo domínio – económico e militar – contra a União Soviética. Nós, americanos, vencemos essa sem nunca nos envolvermos na segunda corrida, que era para ver quem conseguia abrir o maior número de crateras nucleares na outra superpotência. As pessoas perceberam que era apenas suicídio. Ninguém vence. A mesma lógica se aplica aqui.
O que tudo isto significa para o ritmo de desenvolvimento da IA de forma mais ampla? Quão próximos você acha que estamos dos sistemas que você está descrevendo?
Há seis anos, quase todos os especialistas em IA que eu conhecia previram que estávamos a décadas de ter uma IA que pudesse dominar a linguagem e o conhecimento a nível humano — talvez em 2040, talvez em 2050. Estavam todos errados, porque já temos isso agora. Vimos a IA progredir muito rapidamente do nível do ensino médio para o nível universitário, do nível de doutorado até o nível de professor universitário em algumas áreas. No ano passado, a IA ganhou a medalha de ouro na Olimpíada Internacional de Matemática, que é tão difícil quanto as tarefas humanas. Escrevi um artigo junto com Yoshua Bengio, Dan Hendrycks e outros importantes pesquisadores de IA há apenas alguns meses, fornecendo uma definição rigorosa de AGI. De acordo com isso, o GPT-4 estava a 27% do caminho até lá. O GPT-5 percorreu 57% do caminho até lá. Portanto, ainda não chegamos lá, mas passando de 27% para 57%, isso sugere rapidamente que pode não demorar tanto.
Ontem, quando dei uma palestra para meus alunos no MIT, disse-lhes que, mesmo que demore quatro anos, isso significa que, quando se formarem, talvez não consigam mais conseguir nenhum emprego. Certamente não é cedo demais para começar a se preparar para isso.
Antrópico agora está na lista negra. Estou curioso para ver o que acontece a seguir – os outros gigantes da IA ficarão do lado deles e dirão: nós também não faremos isso? Ou será que alguém como xAI levanta a mão e diz: a Anthropic não queria esse contrato, nós aceitamos? (Nota do editor: Horas depois da entrevista, a OpenAI anunciou seu próprio acordo com o Pentágono.)
Ontem à noite, Sam Altman apareceu e disse que apoia a Anthropic e tem as mesmas linhas vermelhas. Eu o admiro pela coragem de dizer isso. O Google, quando começamos esta entrevista, não havia dito nada. Se eles simplesmente ficarem quietos, acho que isso será extremamente embaraçoso para eles como empresa, e muitos de seus funcionários sentirão o mesmo. Ainda não ouvimos nada do xAI. Então será interessante ver. Basicamente, há um momento em que todos têm que mostrar a sua verdadeira face.
Existe uma versão disso em que o resultado é realmente bom?
Sim, e é por isso que estou otimista de uma forma estranha. Há uma alternativa tão óbvia aqui. Se começarmos a tratar as empresas de IA como quaisquer outras empresas – abandonando a amnistia corporativa – elas teriam claramente de fazer algo como um ensaio clínico antes de lançarem algo tão poderoso, e demonstrar a especialistas independentes que sabem como controlá-lo. Então teremos uma era de ouro com todas as coisas boas da IA, sem a angústia existencial. Esse não é o caminho que estamos seguindo agora. Mas poderia ser.



