Início Tecnologia Mistral se aproxima dos grandes rivais da IA ​​com nova fronteira de...

Mistral se aproxima dos grandes rivais da IA ​​com nova fronteira de peso aberto e modelos pequenos

13
0
Mistral logo on laptop screen

A startup francesa de IA Mistral lançou sua nova família Mistral 3 de modelos abertos na terça-feira – um lançamento de 10 modelos que inclui um grande modelo de fronteira com recursos multimodais e multilíngues e nove modelos menores totalmente personalizáveis, com capacidade off-line.

O lançamento ocorre no momento em que a Mistral, que desenvolve modelos de linguagem de peso aberto e um chatbot de IA focado na Europa, Le Chat, parece estar tentando alcançar alguns dos modelos de fronteira de código fechado do Vale do Silício. A startup de dois anos, fundada por ex-pesquisadores DeepMind e Meta, arrecadou cerca de US$ 2,7 bilhões até o momento, com uma avaliação de US$ 13,7 bilhões – amendoim em comparação com os números que concorrentes como OpenAI (US$ 57 bilhões arrecadados com uma avaliação de US$ 500 bilhões) e Antrópico (US$ 45 bilhões arrecadados com uma avaliação de US$ 350 bilhões) estão puxando.

Mas Mistral está tentando provar que maior nem sempre é melhor – especialmente para casos de uso corporativo.

“Nossos clientes às vezes ficam felizes em começar com um modelo muito grande (fechado) que não precisam ser ajustados… mas quando o implantam, percebem que é caro e lento”, disse Guillaume Lample, cofundador e cientista-chefe da Mistral, ao TechCrunch. “Então eles nos procuram para ajustar pequenos modelos para lidar com o caso de uso (de forma mais eficiente).”

“Na prática, a grande maioria dos casos de uso corporativo são coisas que podem ser resolvidas por modelos pequenos, especialmente se você os ajustar”, continuou Lample.

As comparações iniciais de benchmark, que colocam os modelos menores da Mistral bem atrás de seus concorrentes de código fechado, podem ser enganosas, disse Lample. Grandes modelos de código fechado podem ter melhor desempenho imediato, mas os ganhos reais acontecem quando você personaliza.

“Em muitos casos, você pode realmente igualar ou até mesmo superar os modelos de código fechado”, disse ele.

Evento Techcrunch

São Francisco
|
13 a 15 de outubro de 2026

O grande modelo de fronteira da Mistral, apelidado de Mistral Large 3, alcança alguns dos recursos importantes que modelos maiores de IA de código fechado, como o GPT-4o da OpenAI e o Gemini 2 do Google, possuem, ao mesmo tempo que troca golpes com vários concorrentes de peso aberto. O Large 3 está entre os primeiros modelos de fronteira aberta com capacidades multimodais e multilíngues, tudo em um, colocando-o no mesmo nível do Llama 3 da Meta e do Qwen3-Omni do Alibaba. Muitas outras empresas atualmente combinam modelos de linguagem grandes impressionantes com modelos multimodais menores separados, algo que a Mistral fez anteriormente com modelos como Pixtral e Mistral Small 3.1.

O Large 3 também apresenta uma arquitetura de “mistura granular de especialistas” com 41B de parâmetros ativos e 675B de parâmetros totais, permitindo um raciocínio eficiente em uma janela de contexto de 256k. Esse design oferece velocidade e capacidade, permitindo processar documentos extensos e funcionar como um assistente de agente para tarefas empresariais complexas. Mistral posiciona o Large 3 como adequado para análise de documentos, codificação, criação de conteúdo, assistentes de IA e automação de fluxo de trabalho.

Com a sua nova família de modelos pequenos, denominada Ministral 3, a Mistral afirma ousadamente que os modelos mais pequenos não são apenas suficientes – são superiores.

A linha inclui nove modelos distintos e densos de alto desempenho em três tamanhos (parâmetros 14B, 8B e 3B) e três variantes: Base (o modelo básico pré-treinado), Instruct (otimizado para bate-papo para fluxos de trabalho de conversação e estilo assistente) e Raciocínio (otimizado para tarefas lógicas e analíticas complexas).

Mistral diz que esta linha oferece aos desenvolvedores e empresas a flexibilidade de combinar os modelos com seu desempenho exato, seja em busca de desempenho bruto, eficiência de custos ou recursos especializados. A empresa afirma que o Ministral 3 tem pontuações iguais ou melhores do que outros líderes de peso aberto, ao mesmo tempo que é mais eficiente e gera menos tokens para tarefas equivalentes. Todas as variantes oferecem suporte à visão, lidam com janelas de contexto de 128K a 256K e funcionam em vários idiomas.

Uma parte importante do campo é a praticidade. Lample enfatiza que o Ministral 3 pode ser executado em uma única GPU, tornando-o implantável em hardware acessível – desde servidores locais até laptops, robôs e outros dispositivos de ponta que podem ter conectividade limitada. Isso é importante não apenas para empresas que mantêm dados internamente, mas também para estudantes que buscam feedback off-line ou equipes de robótica que operam em ambientes remotos. Maior eficiência, argumenta Lample, traduz-se diretamente numa acessibilidade mais ampla.

“Faz parte da nossa missão garantir que a IA seja acessível a todos, especialmente às pessoas sem acesso à Internet”, disse ele. “Não queremos que a IA seja controlada apenas por alguns grandes laboratórios.”

Algumas outras empresas estão buscando compromissos de eficiência semelhantes: o mais recente modelo empresarial da Cohere, Command A, também roda em apenas duas GPUs, e sua plataforma de agente de IA North pode rodar em apenas uma GPU.

Esse tipo de acessibilidade está impulsionando o crescente foco da Mistral na IA física. No início deste ano, a empresa começou a trabalhar para integrar seus modelos menores em robôs, drones e veículos. Mistral está colaborando com a Home Team Science and Technology Agency (HTX) de Cingapura em modelos especializados para robôs, sistemas de segurança cibernética e segurança contra incêndio; com a startup alemã de tecnologia de defesa Helsing em modelos de visão-linguagem-ação para drones; e com a montadora Stellantis em um assistente de IA no carro.

Para a Mistral, a confiabilidade e a independência são tão críticas quanto o desempenho.

“Usar uma API de nossos concorrentes que fica inativa por meia hora a cada duas semanas – se você é uma grande empresa, não pode pagar por isso”, disse Lample.

Fuente