Início Tecnologia Sam Altman ficou excepcionalmente irritado com os anúncios de Claude no Super...

Sam Altman ficou excepcionalmente irritado com os anúncios de Claude no Super Bowl

17
0
Sam Altman OpenAI DSC02881

O comercial da Anthropic no Super Bowl, um dos quatro anúncios que o laboratório de IA lançou na quarta-feira, começa com a palavra “TRAIÇÃO” estampada em negrito na tela. A câmera se volta para um homem pedindo sinceramente a um chatbot (obviamente destinado a representar o ChatGPT) conselhos sobre como falar com sua mãe.

O bot, retratado por uma mulher loira, oferece alguns conselhos clássicos. Comece ouvindo. Experimente um passeio pela natureza! E então se transforma em um anúncio de um site fictício (esperamos!) de namoro de puma chamado Golden Encounters. A Anthropic finaliza dizendo que, embora os anúncios cheguem à IA, eles não chegarão ao seu próprio chatbot, Claude.

Outro mostra um jovem franzino em busca de conselhos sobre como construir um tanquinho. Depois de informar sua altura, idade e peso, o bot exibe um anúncio de palmilhas para aumentar a altura.

Os comerciais da Antrópico são elaborados de maneira inteligente para os usuários do OpenAI, após o recente anúncio da empresa de que os anúncios chegarão ao nível gratuito do ChatGPT. E causaram um rebuliço imediato, gerando manchetes de que a Anthropic “zomba”, “espeta” e “enterra” no OpenAI.

Eles são engraçados o suficiente para que até Sam Altman admitisse no X que riu deles. Mas ele claramente não os achou engraçados. Eles o inspiraram a escrever um discurso retórico do tamanho de uma novela que acabou chamando seu rival de “desonesto” e “autoritário”.

Primeiro, a parte boa dos anúncios da Antrópico: são engraçados, e eu ri.

Mas eu me pergunto por que a Anthropic optaria por algo tão claramente desonesto. Nosso princípio mais importante para anúncios diz que não faremos exatamente isso; obviamente nunca veicularíamos anúncios da maneira antrópica…

-Sam Altman (@sama) 4 de fevereiro de 2026

Nessa postagem, Altman explica que uma camada suportada por anúncios tem como objetivo arcar com o fardo de oferecer ChatGPT gratuito a muitos de seus milhões de usuários. ChatGPT ainda é o chatbot mais popular por uma grande margem.

Mas o CEO da OpenAI insistiu que eles foram “desonestos” ao sugerir que o ChatGPT distorceria uma conversa para inserir um anúncio (e possivelmente para um produto fora de cor, para começar). “Obviamente, nunca veicularíamos anúncios da maneira como a Anthropic os retrata”, escreveu Altman no post na mídia social. “Não somos estúpidos e sabemos que nossos usuários rejeitariam isso.”

Evento Techcrunch

Boston, MA
|
23 de junho de 2026

Na verdade, a OpenAI prometeu que os anúncios serão separados, rotulados e nunca influenciarão um bate-papo. Mas a empresa também disse que planeja torná-los específicos para conversas – que é a alegação central dos anúncios da Anthropic. Conforme explicado pela OpenAI em seu blog. “Planejamos testar anúncios na parte inferior das respostas no ChatGPT quando houver um produto ou serviço patrocinado relevante com base na sua conversa atual.”

Altman então lançou algumas afirmações igualmente questionáveis ​​ao seu rival. “Anthropic serve um produto caro para pessoas ricas”, escreveu ele. “Também sentimos fortemente que precisamos levar a IA a bilhões de pessoas que não podem pagar pelas assinaturas.”

Mas Claude também tem um nível de chat gratuito, com assinaturas de US$ 0, US$ 17, US$ 100, US$ 200. Os níveis do ChatGPT são $0, $8, $20, $200. Pode-se argumentar que os níveis de assinatura são bastante equivalentes.

Altman também alegou em sua postagem que: “A Anthropic quer controlar o que as pessoas fazem com a IA”. Ele argumenta que bloqueia o uso do Claude Code de “empresas das quais elas não gostam” como a OpenAI, e disse que a Anthropic diz às pessoas para que elas podem ou não usar a IA.

É verdade que todo o acordo de marketing da Anthropic desde o primeiro dia tem sido “IA responsável”. Afinal, a empresa foi fundada por dois ex-alunos da OpenAI, que alegaram que ficaram alarmados com a segurança da IA ​​​​quando trabalharam lá.

Ainda assim, ambas as empresas de chatbot têm políticas de uso, proteções de IA e falam sobre segurança de IA. E, embora o OpenAI permita que o ChatGPT seja usado para fins eróticos, enquanto o Anthropic não, ele também determinou que alguns conteúdos devem ser bloqueados, principalmente no que diz respeito à saúde mental.

No entanto, Altman levou este argumento da Antrópico-diz-lhe-o-que-fazer a um nível extremo quando acusou a Antrópica de ser “autoritária”.

“Uma empresa autoritária não nos levará até lá por si só, para não falar dos outros riscos óbvios. É um caminho obscuro”, escreveu ele.

Usar “autoritário” em um discurso retórico sobre um anúncio atrevido do Super Bowl é, na melhor das hipóteses, equivocado. É particularmente indelicado quando se considera o actual ambiente geopolítico em que manifestantes de todo o mundo foram mortos por agentes do seu próprio governo. Embora os rivais comerciais estejam brigando em anúncios desde o início dos tempos, claramente a Anthropic atingiu um ponto nevrálgico.

Fuente