Um dos primeiros anúncios do WWDC deste ano foi que, pela primeira vez, os desenvolvedores da terceira parte poderão tocar diretamente a IA da Apple no device com a nova estrutura dos modelos da fundação. Mas como esses modelos realmente se comparam com o que já está lá fora?
Com a nova estrutura dos modelos de fundação, os desenvolvedores de terceiros agora podem se basear na mesma pilha de IA no dispositivo usado pelos aplicativos nativos da Apple.
Em outras palavras, isso significa que os desenvolvedores agora poderão integrar a funcionalidade de inteligência artificial, como resumir documentos, extrair informações importantes do texto do usuário ou até gerar conteúdo estruturado, totalmente offline, com custos de API zero.
Mas quão bons são os modelos da Apple?
Competitivo onde conta
Com base nas avaliações humanas da Apple, a resposta é: bastante sólida, especialmente se você considerar o equilíbrio (que alguns poderiam chamar de “compromisso”) entre tamanho, velocidade e eficiência.
No teste da Apple, seu modelo no dispositivo ~ 3B passou nos modelos de idiomas semelhantes semelhantes, como interna-2.5 e QWEN-2.5-VL-3B em atividades de imagens, vencendo mais de 46% e 50% das instruções, respectivamente.
E no texto, ele manteve sua posição contra modelos maiores, como Gemma-3-4B, também marcando-se em algumas premissas inglesas e avaliações multilíngues (português, francês, japonês etc.).
Em outras palavras, os novos modelos locais da Apple parecem destinados a fornecer resultados consistentes para muitos usos do mundo real sem recorrer à nuvem ou solicitar dados para deixar o dispositivo.
Quando se trata do modelo do servidor Apple (que não será acessível a partir de desenvolvedores de terceiros, como modelos locais), ele o comparou favoravelmente com o QWEN-VL-32B de Llam-4-Scout e até super-super-super-super-super-super-desempenho. Dito isto, o GPT-4O ainda lidera o pacote em geral.
A parte “livre e offline” realmente importa
A história real aqui não é apenas que os novos modelos da Apple são melhores. É que eles são incorporados. Com a estrutura dos modelos de fundação, os desenvolvedores não precisam mais agrupar modelos de idiomas pesados em seus aplicativos para o processamento offline. Isso significa dimensões mais sóbrias dos aplicativos e não é necessário cair na nuvem para a maioria das atividades.
O resultado? Uma experiência mais privada para os usuários e nenhum custo de abelhas para desenvolvedores, economias que podem se beneficiar de todos.
A Apple afirma que os modelos são otimizados para saídas estruturadas usando um rápido sistema de geração guiada “guiada”, que permite aos desenvolvedores limitar as respostas do modelo diretamente na lógica dos aplicativos. Para aplicativos sobre educação, produtividade e comunicação, isso pode ser um ponto de virada, oferecendo os benefícios do LLM sem latência, custos ou compromissos sobre privacidade.
No final, os modelos da Apple não são os mais poderosos do mundo, mas não devem ser. Eles são bons, são rápidos e agora estão disponíveis para cada desenvolvedor gratuitamente, no dispositivo e offline.
Isso pode não fazer os mesmos títulos dos modelos mais poderosos, mas na prática pode levar a uma onda de funcionalidade de inteligência artificial verdadeiramente útil em aplicativos iOS de terceira parte que não requerem nuvem. E para a Apple, esse poderia muito bem ser o ponto.
FTC: Usamos conexões de afiliação automática para obter renda. Além disso.