Início Tecnologia Anthropic lança ferramenta de revisão de código para verificar inundação de código...

Anthropic lança ferramenta de revisão de código para verificar inundação de código gerado por IA

21
0
Anthropic lança ferramenta de revisão de código para verificar inundação de código gerado por IA

Quando se trata de codificação, o feedback dos colegas é crucial para detectar bugs antecipadamente, manter a consistência em uma base de código e melhorar a qualidade geral do software.

A ascensão da “vibe coding” – usando ferramentas de IA que recebem instruções dadas em linguagem simples e geram rapidamente grandes quantidades de código – mudou a forma como os desenvolvedores trabalham. Embora essas ferramentas tenham acelerado o desenvolvimento, elas também introduziram novos bugs, riscos de segurança e códigos mal compreendidos.

A solução da Anthropic é um revisor de IA projetado para detectar bugs que os humanos podem não perceber. O novo produto, Code Review enlatado, foi lançado segunda-feira na Claude Code.

“Temos visto um grande crescimento no Claude Code, especialmente dentro da empresa, e uma das perguntas que continuamos recebendo dos líderes empresariais é: agora que o Claude Code está lançando um monte de pull requests, como posso garantir que eles sejam revisados ​​de maneira eficiente?” Cat Wu, chefe de produto da Anthropic, disse ao TechCrunch.

Solicitações pull são o mecanismo que os desenvolvedores usam para enviar alterações de código para revisão antes que essas alterações cheguem ao software. Wu disse que o Claude Code aumentou drasticamente a produção de código, tornando as revisões de pull request um gargalo para o envio.

Wu disse que, como o Claude Code permite que os desenvolvedores produzam mais código, as solicitações pull feitas para garantir que o código seja seguro e confiável estão se tornando um gargalo no envio do código.

“Code Review é a nossa resposta para isso”, disse Wu.

Evento Techcrunch

São Francisco, Califórnia
|
13 a 15 de outubro de 2026

O lançamento do Code Review pela Anthropic – chegando primeiro aos clientes Claude for Teams e Claude for Enterprise na visualização da pesquisa – chega em um momento crucial para a empresa.

Na segunda-feira, a Anthropic entrou com duas ações judiciais contra o Departamento de Defesa em resposta à designação da agência pela agência como um risco na cadeia de suprimentos. A disputa provavelmente fará com que a Anthropic se apoie mais fortemente em seu negócio empresarial em expansão, que viu as assinaturas quadruplicarem desde o início do ano. A receita operacional do Claude Code ultrapassou US$ 2,5 bilhões desde o lançamento, segundo a empresa.

“Este produto é muito direcionado aos nossos usuários corporativos de maior escala, como empresas como Uber, Salesforce, Accenture, que já usam o Claude Code e agora querem ajuda com a grande quantidade de (solicitações pull) que estão ajudando a produzir”, disse Wu.

Ela acrescentou que os líderes de desenvolvimento podem ativar o Code Review para execução padrão para todos os engenheiros da equipe. Uma vez ativado, ele se integra ao GitHub e analisa automaticamente solicitações pull, deixando comentários diretamente no código explicando possíveis problemas e sugestões de correções.

O foco está na correção de erros lógicos em detrimento do estilo, disse Wu.

“Isso é realmente importante porque muitos desenvolvedores já viram feedback automatizado de IA antes e ficam irritados quando isso não é imediatamente acionável”, disse Wu. “Decidimos que vamos nos concentrar puramente nos erros lógicos. Dessa forma, estamos identificando as coisas de maior prioridade para corrigir.”

A IA explica seu raciocínio passo a passo, descrevendo o que ela acha que é o problema, por que pode ser problemático e como pode ser potencialmente corrigido. O sistema rotulará a gravidade dos problemas usando cores: vermelho para maior gravidade, amarelo para possíveis problemas que valem a pena revisar e roxo para problemas vinculados a códigos pré-existentes ou bugs históricos.

Wu disse que faz tudo isso de forma rápida e eficiente, contando com vários agentes trabalhando em paralelo, com cada agente examinando a base de código de uma perspectiva ou dimensão diferente. Um agente final agrega e classifica os registros, removendo duplicatas e priorizando o que é mais importante.

A ferramenta fornece uma análise leve de segurança e os líderes de engenharia podem personalizar verificações adicionais com base nas melhores práticas internas. Wu disse que o Claude Code Security, lançado mais recentemente pela Anthropic, fornece uma análise de segurança mais profunda.

A arquitetura multiagente significa que este pode ser um produto que consome muitos recursos, disse Wu. Semelhante a outros serviços de IA, o preço é baseado em tokens e o custo varia dependendo da complexidade do código – embora Wu estimou que cada revisão custaria em média US$ 15 a US$ 25. Ela acrescentou que é uma experiência premium e necessária, pois as ferramentas de IA geram cada vez mais código.

“(Code Review) é algo que vem de uma quantidade absurda de atração de mercado”, disse Wu. “À medida que os engenheiros desenvolvem com o Claude Code, eles percebem o atrito na criação de um novo recurso (diminuição) e uma demanda muito maior por revisão de código. Portanto, temos esperança de que, com isso, permitiremos que as empresas construam mais rápido do que jamais conseguiram antes e com muito menos bugs do que nunca.”

Fuente