“Sim, pessoal, será mais difícil no futuro garantir que o OpenClaw ainda funcione com modelos Anthropic”, postou o criador do OpenClaw, Peter Steinberger, no X na manhã de sexta-feira, junto com uma foto de uma mensagem da Anthropic dizendo que sua conta foi suspensa por causa de atividades “suspeitas”.
A proibição não durou muito. Poucas horas depois, depois que a postagem se tornou viral, Steinberger disse que sua conta havia sido restabelecida. Entre centenas de comentários – muitos deles em terrenos de teoria da conspiração, visto que Steinberger agora é empregado da rival Antrópica OpenAI – estava um de um engenheiro Antrópico. O engenheiro disse ao famoso desenvolvedor que a Anthropic nunca baniu ninguém por usar o OpenClaw e se ofereceu para ajudar.
Não está claro se essa foi a chave que restaurou a conta. (Perguntamos à Anthropic sobre isso.) Mas toda a sequência de mensagens foi esclarecedora em muitos níveis.
Para recapitular a história recente: essa proibição seguiu-se à notícia da semana passada de que as assinaturas do Claude da Anthropic não cobririam mais “arnês de terceiros, incluindo OpenClaw”, disse a empresa de modelos de IA.
Os usuários do OpenClaw agora precisam pagar por esse uso separadamente, com base no consumo, por meio da API de Claude. Em essência, a Anthropic, que oferece seu próprio agente Cowork, agora cobra um “imposto de garra”. Steinberger disse que estava seguindo essa nova regra e usando sua API, mas foi banido mesmo assim.
A Anthropic disse que instituiu a mudança de preços porque as assinaturas não foram criadas para lidar com os “padrões de uso” das garras. As garras podem exigir mais computação do que prompts ou scripts simples porque podem executar loops de raciocínio contínuos, repetir ou tentar novamente tarefas automaticamente e vincular-se a muitas outras ferramentas de terceiros.
Steinberger, no entanto, não acreditou nessa desculpa. Depois que a Anthropic mudou o preço, ele postou: “Engraçado como os prazos coincidem, primeiro eles copiam alguns recursos populares em seu equipamento fechado e depois bloqueiam o código aberto”. Embora não tenha especificado, ele pode estar se referindo aos recursos adicionados ao Cowork do agente de Claude, como o Claude Dispatch, que permite aos usuários controlar remotamente agentes e atribuir tarefas. O Dispatch foi lançado algumas semanas antes da Anthropic mudar sua política de preços do OpenClaw.
A frustração de Steinberger com a Anthropic ficou novamente exposta na sexta-feira.
Uma pessoa deu a entender que parte disso é culpa dele, por aceitar um emprego na OpenAI em vez da Anthropic, postando “Você teve a escolha, mas escolheu a errada”. Ao que Steinberger respondeu: “Um me acolheu, outro enviou ameaças legais”.
Ai.
Quando várias pessoas perguntaram por que ele está usando o Claude em vez dos modelos de seu empregador, ele explicou que o usa apenas para testes, para garantir que as atualizações do OpenClaw não prejudiquem os usuários do Claude.
Ele explicou: “Você precisa separar duas coisas. Meu trabalho na OpenClaw Foundation, onde queremos fazer o OpenClaw funcionar muito bem para *qualquer* fornecedor de modelo, e meu trabalho na OpenAI para ajudá-los com futuras estratégias de produtos.”
Várias pessoas também apontaram que a necessidade de testar Claude ocorre porque esse modelo continua sendo uma escolha popular para usuários do OpenClaw em vez do ChatGPT. Ele também ouviu isso quando a Anthropic mudou seus preços, ao que respondeu: “Trabalhando nisso”. (Então, essa é uma pista sobre o que envolve seu trabalho na OpenAI.)
Steinberger não respondeu a um pedido de comentário.



