A Microsoft lançou vários novos modelos de IA “Open” na quarta-feira, o mais capaz dos quais é competitivo com o O3-mini da Openai em pelo menos um benchmark.
Todos os novos modelos licenciados pela PEMissivamente-Phi 4 Mini Raciacing, Phi 4 Raconing e Phi 4 Raconing Plus-são modelos de “raciocínio”, o que significa que eles são capazes de gastar mais soluções de verificação de fatos para problemas complexos. A Microsoft lançou a família PHI de “pequenos modelos” um ano antes para fornecer uma plataforma para desenvolvedores de IA que criam aplicativos no limite. A Microsoft afirma que o Phi 4 Mini Racialing, com seu tamanho de 3,8 bilhões de parâmetros, é destinado a fins educacionais, como “tutoriais incorporados” em dispositivos leves.
Os parâmetros correspondem aproximadamente às habilidades de solução de problemas de um modelo, e os modelos com mais parâmetros geralmente têm um desempenho melhor do que aqueles com menos parâmetros.
O raciocínio Phi 4, um modelo de 14 bilhões de parâmetros, foi treinado usando dados da Web de “alta qualidade”, bem como “demonstrações com curadoria” da mencionada O3-mini mencionada acima. A Microsoft diz que é melhor para aplicações em matemática, ciências e codificação. A Microsoft diz que o modelo PHI-4 Raciacing Plus está próximo de R1, que possui muito mais parâmetros. (671 bilhões) O benchmarking interno da Microsoft também mostra que ele corresponde à O3-mini no Omnimath, um teste de habilidades matemáticas. O benchmarking interno da empresa também possui o raciocínio Phi 4, além de combinar O3-mini no Omnimath, um teste de habilidades matemáticas.
Phi 4 Mini Raciocínio, Raciocínio Phi 4 e Phi 4 Raciacing Plus estão disponíveis na plataforma AI dev abraçando o rosto acompanhado por relatórios técnicos detalhados.
Evento do TechCrunch
Berkeley, CA.
|
5 de junho
Reserve agora
“Usando destilação, aprendizado de reforço e dados de alta qualidade, estes
Os modelos equilibram o tamanho e o desempenho, “escreveu a Microsoft em uma postagem no blog. Eles são compactos o suficiente para se ajustarem em sistemas de baixa latência, mas ainda têm habilidades de raciocínio que podem rivalizar com os de modelos muito maiores. Essa mistura permite que até dispositivos limitados com recursos executem tarefas complexas de raciocínio com eficiência”.