Início Tecnologia Microsoft anuncia novo e poderoso chip para inferência de IA

Microsoft anuncia novo e poderoso chip para inferência de IA

21
0
A close up on a microprocessor, labeled as "Microsoft Maia 200"

A Microsoft anunciou o lançamento de seu mais recente chip, o Maia 200, que a empresa descreve como um burro de carga de silício projetado para dimensionar a inferência de IA.

O 200, que segue o Maia 100 da empresa lançado em 2023, foi tecnicamente equipado para executar poderosos modelos de IA em velocidades mais rápidas e com mais eficiência, disse a empresa. Maia vem equipado com mais de 100 bilhões de transistores, fornecendo mais de 10 petaflops com precisão de 4 bits e aproximadamente 5 petaflops de desempenho de 8 bits – um aumento substancial em relação ao seu antecessor.

Inferência refere-se ao processo computacional de execução de um modelo, em contraste com a computação necessária para treiná-lo. À medida que as empresas de IA amadurecem, os custos de inferência tornaram-se uma parte cada vez mais importante dos seus custos operacionais globais, levando a um interesse renovado em formas de optimizar o processo.

A Microsoft espera que o Maia 200 possa fazer parte dessa otimização, fazendo com que os negócios de IA funcionem com menos interrupções e menor consumo de energia. “Em termos práticos, um nó Maia 200 pode executar facilmente os maiores modelos atuais, com bastante espaço para modelos ainda maiores no futuro”, disse a empresa.

O novo chip da Microsoft também faz parte de uma tendência crescente de gigantes da tecnologia que recorrem a chips auto-projetados como forma de diminuir a sua dependência da NVIDIA, cujas GPUs de ponta se tornaram cada vez mais essenciais para o sucesso das empresas de IA. O Google, por exemplo, tem suas TPU, as unidades de processamento de tensores – que não são vendidas como chips, mas como poder de computação disponibilizado por meio de sua nuvem. Depois, há o Amazon Trainium, o chip acelerador de IA da gigante do comércio eletrônico, que acaba de lançar sua versão mais recente, o Trainium3, em dezembro. Em cada caso, as TPUs podem ser usadas para descarregar parte da computação que, de outra forma, seria atribuída às GPUs NVIDIA, diminuindo o custo geral de hardware.

Com Maia, a Microsoft se posiciona para competir com essas alternativas. Em seu comunicado à imprensa na segunda-feira, a empresa observou que Maia oferece 3x o desempenho do FP4 dos chips Amazon Trainium de terceira geração e desempenho do FP8 acima do TPU de sétima geração do Google.

A Microsoft diz que Maia já está trabalhando duro para alimentar os modelos de IA da empresa com sua equipe de Superinteligência. Também tem apoiado as operações do Copilot, seu chatbot. Na segunda-feira, a empresa disse que convidou diversas partes – incluindo desenvolvedores, acadêmicos e laboratórios de IA de ponta – para usar seu kit de desenvolvimento de software Maia 200 em suas cargas de trabalho.

Evento Techcrunch

São Francisco
|
13 a 15 de outubro de 2026

Fuente