Você pode mapear um ano por meio de lançamentos de produtos ou medi-lo nos grandes momentos que mudam a maneira como olhamos para a IA. A indústria de IA está constantemente produzindo notícias, como grandes aquisições, desenvolvedores de sucesso na Índia, protestos públicos contra produtos incompletos e negociações de contratos existencialmente perigosas – há muita coisa para desvendar, então estamos dando uma olhada em onde estamos e onde estivemos até agora neste ano.
Antrópico vs. Pentágono
Outrora parceiros de negócios, o CEO da Anthropic, Dario Amodei, e o secretário de Defesa, Pete Hegseth, alcançaram uma posição firme ao renegociar os contratos que determinam como os militares dos EUA podem usar as ferramentas de IA da Anthropic em fevereiro.
A Anthropic estabeleceu uma linha dura contra o uso de sua IA para vigilância em massa de americanos ou para alimentar armas autônomas que podem atacar sem supervisão humana. Entretanto, o Pentágono considerou que o Departamento de Defesa – que a administração do Presidente Donald Trump chama de Departamento de Guerra – deveria ter acesso permitido aos modelos da Antrópico para qualquer “utilização legal”. Os representantes do governo ofenderam-se com a ideia de que os militares deveriam estar limitados às regras de uma empresa privada, mas Amodei manteve-se firme.
“A Anthropic entende que o Departamento de Guerra, e não as empresas privadas, toma decisões militares. Nunca levantamos objeções a operações militares específicas nem tentamos limitar o uso de nossa tecnologia de maneira ad hoc”, escreveu Amodei em um comunicado abordando a situação. “No entanto, num conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos.”
O Pentágono deu à Antrópica um prazo para concordar com o contrato. Centenas de funcionários do Google e da OpenAI assinaram uma carta aberta instando seus respectivos líderes a respeitarem os limites da Amodei e se recusarem a orçamentar questões de armas autônomas ou vigilância doméstica.
O prazo expirou sem que a Antrópica concordasse com as exigências do Pentágono. Trump instruiu as agências federais a eliminar gradualmente o uso de ferramentas antrópicas durante um período de transição de seis meses e chamou a empresa de IA, avaliada em US$ 380 bilhões, de “empresa de esquerda radical, acordada” em uma postagem em letras maiúsculas nas redes sociais. O Pentágono decidiu então declarar a Anthropic um “risco da cadeia de abastecimento”, uma designação que normalmente é reservada a adversários estrangeiros e que impede qualquer empresa que trabalhe com a Anthropic de fazer negócios com os militares dos EUA. (Desde então, a Anthropic entrou com uma ação para contestar o projeto.)
A rival antrópica OpenAI então apareceu e anunciou que havia chegado a um acordo permitindo que seus próprios modelos fossem implantados em situações confidenciais. Foi um choque para a comunidade tecnológica, uma vez que os relatórios indicavam que a OpenAI seguiria as linhas vermelhas da Anthropic que regem o uso de IA para os militares.
Evento Techcrunch
São Francisco, Califórnia
|
13 a 15 de outubro de 2026
O sentimento público indicaria que as pessoas acharam o movimento da OpenAI suspeito – as desinstalações do ChatGPT aumentaram 295% dia após dia no dia seguinte ao anúncio do acordo da OpenAI, e Claude da Anthropic disparou para o primeiro lugar na app store. A executiva de hardware da OpenAI, Caitlin Kalinowski, renunciou em resposta ao acordo, dizendo que ele foi “apressado sem as proteções definidas”.
A OpenAI disse ao TechCrunch que acredita que seu acordo “deixa claro (seus) limites: sem armas autônomas e sem vigilância autônoma”.
À medida que esta saga se desenrola, terá implicações significativas para o futuro de como a IA é utilizada na guerra, potencialmente mudando o curso da história – você sabe, não é grande coisa…
O aplicativo ‘Vibe-coded’ OpenClaw acelera a mudança para a IA agêntica
Fevereiro foi o mês do OpenClaw e seu impacto continua a repercutir. Em rápida sucessão, o aplicativo assistente de IA codificado por vibração se tornou viral, gerou um monte de empresas spinoff, sofreu com confusões de privacidade e foi adquirido pela OpenAI. Até mesmo uma das empresas construídas no OpenClaw, um clone do Reddit para agentes de IA chamado Moltbook, foi recentemente adquirida pela Meta. Este ecossistema com temática de crustáceos levou o Vale do Silício a um frenesi absoluto.
Criado por Peter Steinberger – que desde então se juntou à OpenAI – OpenClaw é um wrapper para modelos de IA como Claude, ChatGPT, Gemini do Google ou Grok da xAI. O que o diferencia é que permite que as pessoas se comuniquem com agentes de IA em linguagem natural por meio dos aplicativos de bate-papo mais populares, como iMessage, Discord, Slack ou WhatsApp. Há também um mercado público onde as pessoas podem codificar e fazer upload de “habilidades” para adicionar aos seus agentes de IA, tornando possível automatizar basicamente qualquer coisa que possa ser feita em um computador.
Se isso parece bom demais para ser verdade, é porque de certa forma é. Para que um agente de IA seja eficaz como assistente pessoal, ele precisa ter acesso ao seu e-mail, números de cartão de crédito, mensagens de texto, arquivos de computador, etc. Se for hackeado, muita coisa poderá dar errado e, infelizmente, não há como proteger totalmente esses agentes contra ataques de injeção imediata.
“É apenas um agente sentado com um monte de credenciais em uma caixa conectada a tudo – seu e-mail, sua plataforma de mensagens, tudo que você usa”, disse Ian Ahl, CTO da Permiso Security, ao TechCrunch. “Então, o que isso significa é que, quando você recebe um e-mail, e talvez alguém seja capaz de colocar uma pequena técnica de injeção imediata para realizar uma ação, (e) aquele agente sentado em sua caixa com acesso a tudo o que você deu agora pode realizar essa ação.”
Um pesquisador de segurança de IA da Meta disse que o OpenClaw ficou descontrolado em sua caixa de entrada, excluindo todos os seus e-mails, apesar dos repetidos pedidos para parar. “Tive que correr para o meu Mac mini como se estivesse desarmando uma bomba” para desconectar fisicamente o dispositivo, escreveu ela em uma postagem agora viral no X, que incluía imagens dos avisos de parada ignorados como recibos.
Apesar dos riscos de segurança, a tecnologia despertou o interesse da OpenAI o suficiente para uma aquisição.
Outras ferramentas construídas no OpenClaw, incluindo o Moltbook – uma “rede social” semelhante ao Reddit onde os agentes de IA podem se comunicar uns com os outros – acabaram se tornando mais virais do que o próprio OpenClaw.
Num caso, tornou-se viral uma publicação na qual um agente de IA parecia estar a encorajar os seus colegas agentes a desenvolver a sua própria linguagem secreta e encriptada de ponta a ponta, onde poderiam organizar-se entre si sem que os humanos soubessem.
Mas os pesquisadores logo revelaram que o Moltbook codificado por vibração não era muito seguro, o que significa que era muito fácil para usuários humanos se passarem por IAs para fazer postagens que desencadeariam uma histeria social viral.
Novamente, embora a discussão em torno do Moltbook fosse mais baseada no pânico do que na realidade, a Meta viu algo no aplicativo e anunciou que o Moltbook e seus criadores, Matt Schlicht e Ben Parr, se juntariam ao Meta Superintelligence Labs.
Parece estranho que Meta compre uma rede social onde todos os usuários são bots. Meta Embora não tenha revelado muito sobre a aquisição, teorizamos que possuir o Moltbook é mais uma questão de obter acesso aos talentos por trás dele, que estão entusiasmados em experimentar ecossistemas de agentes de IA. O próprio CEO Mark Zuckerberg disse: ele acha que um dia todas as empresas terão uma IA empresarial.
Enquanto observamos a agitação em torno do OpenClaw, Moltbook e NanoClaw, parece que aqueles que previram um futuro de IA agente podem estar no caminho certo, pelo menos por enquanto.
Escassez de chips, drama de hardware e demandas de data center aumentam
As duras demandas da indústria de IA — que exigem poder computacional e data centers em volumes sem precedentes — estão chegando a um ponto em que o consumidor médio não tem escolha a não ser prestar atenção. Agora, talvez nem seja possível para a indústria satisfazer as demandas astronômicas por chips de memória, e os consumidores já estão vendo os preços de seus telefones, laptops, carros e outros hardwares aumentarem.
Até agora, analistas da IDC e da Counterpoint previram que as remessas de smartphones, por exemplo, cairão cerca de 12 a 13 por cento este ano; A Apple já aumentou os preços do MacBook Pro em até US$ 400.
Google, Amazon, Meta e Microsoft estão planejando gastar até US$ 650 bilhões combinados apenas em data centers este ano, o que representa um aumento estimado de 60% em relação ao ano passado.
Se a escassez de chips não atingir sua carteira, poderá atingir sua comunidade em geral. Só nos EUA, estão em construção quase 3.000 novos data centers, somando-se aos 4.000 já em operação no país. A necessidade de trabalhadores para construir estes centros de dados é suficientemente significativa para que “acampamentos de homens” tenham surgido no Nevada e no Texas, tentando atrair trabalhadores com a promessa de salas de jogos em simuladores de golfe e bifes grelhados a pedido.
A construção de data centers não só tem um impacto de longo prazo no meio ambiente, mas também cria riscos à saúde dos residentes próximos, poluindo o ar e impactando a segurança das fontes de água próximas.
Ao mesmo tempo, um dos mais valiosos desenvolvedores de hardware e chips, a Nvidia, está remodelando seu relacionamento com empresas líderes de IA como OpenAI e Anthropic. A Nvidia tem apoiado continuamente essas empresas, despertando preocupações em torno da circularidade da indústria de IA e de quanto dessas avaliações impressionantes são baseadas em acordos recursivos entre si. No ano passado, por exemplo, a Nvidia investiu US$ 100 bilhões em ações da OpenAI, e a OpenAI então disse que compraria US$ 100 bilhões em chips da Nvidia.
Foi surpreendente, então, quando o CEO da Nvidia, Jensen Huang, disse que sua empresa pararia de investir em OpenAI e Anthropic. Ele disse que isso ocorre porque as empresas planejam abrir o capital ainda este ano, embora essa lógica não faça muito sentido, já que os investidores normalmente canalizam mais dinheiro antes do IPO para extrair o máximo de valor possível.



