A Microsoft anunciou a mais recente adição à sua família Phi de modelos generativos de IA.
Chamado Phi-4, o modelo melhorou em diversas áreas em relação aos seus antecessores, diz a Microsoft, especialmente na resolução de problemas matemáticos. Isto é parcialmente resultado da melhor qualidade dos dados de treinamento.
Phi-4 está disponível com acesso muito limitado a partir de quinta-feira à noite: apenas no lançamento recente da Microsoft. Fundição de IA do Azure plataforma de desenvolvimento e apenas para fins de pesquisa sob um contrato de licença de pesquisa da Microsoft.
Este é o mais recente modelo de linguagem pequena da Microsoft, com tamanho de 14 bilhões de parâmetros, e compete com outros modelos pequenos, como GPT-4o mini, Gemini 2.0 Flash e Claude 3.5 Haiku. Esses modelos de IA são normalmente mais rápidos e baratos de executar, mas o desempenho de modelos de linguagem pequena aumentou gradualmente nos últimos anos.
Neste caso, a Microsoft atribui o salto de desempenho do Phi-4 ao uso de “conjuntos de dados sintéticos de alta qualidade”, juntamente com conjuntos de dados de alta qualidade de conteúdo gerado por humanos e algumas melhorias pós-treinamento não especificadas.
Atualmente, muitos laboratórios de IA estão analisando mais de perto as inovações que podem fazer em torno de dados sintéticos e treinamento subsequente. O CEO da Scale AI, Alexandr Wang, disse em um tweet na quinta-feira que “chegamos a um muro de dados pré-treino”, confirmando vários relatórios sobre o assunto nas últimas semanas.
Notavelmente, o Phi-4 é o primeiro modelo da série Phi a ser lançado após a saída de Sébastien Bubeck. Bubeck, ex-vice-presidente de IA da Microsoft e figura-chave no desenvolvimento do modelo Phi da empresa, esquerda A Microsoft em outubro se juntará à OpenAI.