A Nvidia disse que a oportunidade de receita para seus chips de inteligência artificial pode chegar a pelo menos US$ 1 trilhão até 2027, enquanto a empresa delineia uma estratégia para competir de forma mais agressiva no mercado em rápido crescimento de execução de sistemas de IA em tempo real.
O CEO Jensen Huang revelou um novo processador central e um sistema de IA construído com tecnologia da Groq – uma startup de chips da qual a Nvidia licenciou tecnologia por US$ 17 bilhões em dezembro, em sua conferência anual de desenvolvedores GTC em San Jose, Califórnia.
As medidas fazem parte da tentativa de Huang de firmar a posição da empresa na chamada computação de inferência, o processo de resposta a consultas, onde seus processadores gráficos enfrentam maior concorrência de unidades centrais de processamento e processadores personalizados construídos por empresas como o Google. Os chips Nvidia dominaram o processo de treinamento de modelos de IA, que tem sido o foco dos últimos anos.
O CEO da Nvidia, Jensen Huang, revelou um novo processador central e um sistema de IA baseado na tecnologia da Groq – uma startup de chips. GettyImages
“A inflexão da inferência chegou”, disse Huang. “E a demanda continua aumentando”, acrescentou.
Vestido com sua jaqueta de couro preta exclusiva, Huang estava falando em uma arena de hóquei com capacidade para mais de 18.000 pessoas na conferência de quatro dias que se tornou uma das maiores vitrines da tecnologia de IA. “Só quero lembrar a vocês que esta é uma conferência de tecnologia”, disse ele ao público.
Mas depois de uma recuperação impressionante que fez da Nvidia a primeira empresa a atingir uma avaliação de 5 biliões de dólares em outubro passado, surgiram dúvidas sobre o seu crescimento. Os investidores também questionaram se seu plano de reinvestir os lucros no ecossistema de IA valerá a pena. Os comentários de Huang dissiparam alguns temores.
A previsão de US$ 1 trilhão está acima da oportunidade de receita de US$ 500 bilhões até 2026 que a Nvidia citou para seus chips Blackwell e Rubin AI em sua última divulgação de lucros em fevereiro.
Huang é acompanhado no palco por Olaf, um personagem da Disney de “Frozen”. AFP via Getty Images
As ações da Nvidia saltaram brevemente com a nova previsão, mas reduziram esses ganhos para fechar em alta de 1,2%.
“Huang mapeando uma oportunidade de US$ 1 trilhão até 2027 ressalta a demanda durável pela infraestrutura de IA da Nvidia, apesar das preocupações dos investidores”, disse o analista da Emarketer, Jacob Bourne.
“Isso sinaliza que a Nvidia está sustentando sua liderança no mercado de chips de IA enquanto a indústria geral de IA se expande além da experimentação inicial para a implantação em larga escala.”
Huang’s busca firmar a posição da Nvidia na chamada computação de inferência, o processo de resposta a consultas, onde seus processadores gráficos enfrentam maior concorrência de empresas como o Google. PA
Boom de inferência
Huang disse que a inferência, onde os sistemas de IA respondem a perguntas ou realizam tarefas, será dividida em duas etapas.
Os chips Vera Rubin da Nvidia cuidarão de uma primeira etapa chamada “prefill”, onde a solicitação do usuário é transformada de palavras humanas na linguagem de “tokens” que os computadores de IA usam.
Os novos chips da Groq cuidarão de um segundo estágio de “decodificação”, onde o computador de IA fornece a resposta que o usuário procura.
“Huang mapeando uma oportunidade de US$ 1 trilhão até 2027 ressalta a demanda durável pela infraestrutura de IA da Nvidia, apesar das preocupações dos investidores”, disse o analista da Emarketer, Jacob Bourne. AFP via Getty Images
Depois de gastar centenas de milhares de milhões de dólares nos últimos anos em chips para treinar os seus modelos de IA, empresas como a OpenAI, a Anthropic e a Meta estão a mudar para servir centenas de milhões de utilizadores que utilizam esses sistemas de IA.
Isso também está impulsionando a demanda por CPUs – que são dominadas pela Intel e são cada vez mais vistas como uma alternativa viável aos processadores gráficos da Nvidia para a implantação de modelos de IA.
“Estamos vendendo muitas CPUs independentes”, disse Huang ao revelar a nova CPU Vera. “Este já será com certeza um negócio multibilionário para nós”, acrescentou.
Depois de gastar milhares de milhões de dólares nos últimos anos em chips para treinar os seus modelos de IA, empresas como a OpenAI, a Anthropic e a Meta estão a mudar para servir centenas de milhões de utilizadores que utilizam esses sistemas de IA. REUTERS
Huang também mostrou o roteiro Feynman da empresa, mas ofereceu poucos detalhes além de uma lista dos vários chips que a Nvidia planeja incluir na plataforma, incluindo processadores de IA e vários chips de rede. A arquitetura Feynman é esperada para 2028, seguindo os chips Rubin Ultra da empresa.
A empresa também tem como alvo o mercado de agentes autônomos de IA com o NemoClaw, que se integra à plataforma viral OpenClaw para adicionar controles de privacidade e segurança à ferramenta que pode executar de forma autônoma uma ampla gama de tarefas com o mínimo de orientação humana e gerou buzz global.
“Isso meio que elevou toda a discussão. Elevou todo o pensamento sobre como eles fazem a infraestrutura”, disse o presidente da Technalysis Research, Bob O’Donnell, referindo-se aos anúncios.
“Ele (Huang) costumava lançar um novo chip GPU e dizer: olha, aqui está meu novo chip. Agora ele tem, você sabe, cinco racks de equipamentos que compõem esses sistemas.”



