Início Tecnologia Multiverse Computing leva seus modelos de IA compactados para o mainstream

Multiverse Computing leva seus modelos de IA compactados para o mainstream

14
0
Multiverse Computing leva seus modelos de IA compactados para o mainstream

Com a inadimplência de empresas privadas acima de 9,2% – a taxa mais alta em anos – as empresas de capital de risco Lux Capital aconselharam recentemente as empresas que dependem de IA para obterem a confirmação por escrito de seus compromissos de capacidade computacional. Com a instabilidade financeira se espalhando pela cadeia de fornecimento de IA, alertou Lux, um acordo de aperto de mão não é suficiente.

Mas há outra opção: parar de depender totalmente da infraestrutura de computação externa. Modelos menores de IA que são executados diretamente no próprio dispositivo do usuário — sem data center, sem provedor de nuvem, sem risco de contraparte — estão ficando bons o suficiente para valer a pena considerá-los. E a Multiverse Computing está levantando a mão.

A startup espanhola tem até agora mantido um perfil mais discreto do que alguns dos seus pares, mas à medida que a procura pela eficiência da IA ​​cresce, isto está a mudar. Depois de compactar modelos dos principais laboratórios de IA, incluindo OpenAI, Meta, DeepSeek e Mistral AI, lançou um aplicativo que mostra os recursos de seus modelos compactados e um portal de API – um gateway que permite aos desenvolvedores acessar e construir com esses modelos – que os torna mais amplamente disponíveis.

O aplicativo CompactifAI, que compartilha seu nome com a tecnologia de compressão de inspiração quântica do Multiverse, é uma ferramenta de bate-papo de IA no estilo ChatGPT ou Le Chat de Mistral. Faça uma pergunta e o modelo responderá. A diferença é que o Multiverse incorporou o Gilda, um modelo tão pequeno que pode rodar localmente e offline, segundo a empresa.

Para os usuários finais, esta é uma amostra da IA ​​no limite, com dados que não saem de seus dispositivos e não requerem conexão. Mas há uma ressalva: seus dispositivos móveis devem ter memória RAM e armazenamento suficientes. Caso contrário – e muitos iPhones mais antigos não o farão – o aplicativo voltará para modelos baseados em nuvem via API. O roteamento entre o processamento local e na nuvem é feito automaticamente por um sistema que a Multiverse nomeou Ash Nazg, cujo nome soará como uma lembrança para os fãs de Tolkien, pois faz referência à inscrição do Um Anel em “O Senhor dos Anéis”. Mas quando o aplicativo é encaminhado para a nuvem, ele perde sua principal vantagem de privacidade no processo.

Essas limitações significam que o CompactifAI ainda não está pronto para adoção em massa pelos clientes, embora esse talvez nunca tenha sido o objetivo. Segundo dados da Sensor Tower, o aplicativo teve menos de 5 mil downloads no último mês.

O verdadeiro alvo são as empresas. Hoje, a Multiverse está lançando um portal de API de autoatendimento que oferece aos desenvolvedores e às empresas acesso direto aos seus modelos compactados, sem a necessidade do AWS Marketplace.

Evento Techcrunch

São Francisco, Califórnia
|
13 a 15 de outubro de 2026

“O portal API CompactifAI (agora) oferece aos desenvolvedores acesso direto a modelos compactados com a transparência e o controle necessários para executá-los em produção”, disse o CEO Enrique Lizaso em comunicado.

O monitoramento de uso em tempo real é um dos principais recursos da API, e isso não é por acaso. Juntamente com as vantagens potenciais da implantação na borda, os custos de computação mais baixos são uma das principais razões pelas quais as empresas estão considerando modelos menores como uma alternativa aos modelos de linguagem grande (LLMs).

Também ajuda o fato de os modelos pequenos serem menos limitados do que costumavam ser. No início desta semana, a Mistral atualizou sua família de modelos pequenos com o lançamento do Mistral Small 4, que afirma ser otimizado simultaneamente para bate-papo geral, codificação, tarefas de agência e raciocínio. A empresa francesa também lançou o Forge, um sistema que permite às empresas criar modelos personalizados, incluindo modelos pequenos para os quais podem escolher as compensações que os seus casos de utilização podem tolerar melhor.

Os resultados recentes do Multiverse também sugerem que a lacuna com os LLMs está diminuindo. Seu modelo compactado mais recente, HyperNova 60B 2602, é construído em gpt-oss-120b – um modelo OpenAI cujo código subjacente está disponível publicamente. A empresa afirma que agora oferece respostas mais rápidas a um custo menor do que o original do qual foi derivado, uma vantagem que é importante especialmente para fluxos de trabalho de codificação de agentes, onde a IA conclui de forma autônoma tarefas de programação complexas e em várias etapas.

Tornar modelos pequenos o suficiente para operar em dispositivos móveis e, ao mesmo tempo, permanecer úteis é um grande desafio. A Apple Intelligence evitou esse problema combinando um modelo no dispositivo e um modelo na nuvem. O aplicativo CompactifAI do Multiverse também pode encaminhar solicitações para gpt-oss-120b via API, mas seu principal objetivo é mostrar que modelos locais como Gilda e seus futuros substitutos têm vantagens que vão além da economia de custos.

Para trabalhadores em áreas críticas, um modelo que pode ser executado localmente e sem conexão com a nuvem oferece mais privacidade e resiliência. Mas o maior valor está nos casos de uso empresarial que isso pode desbloquear – por exemplo, incorporando IA em drones, satélites e outros ambientes onde a conectividade não pode ser considerada garantida.

A empresa já serve mais de 100 clientes globais, incluindo o Banco do Canadá, a Bosch e a Iberdrola, mas a expansão da sua base de clientes poderia ajudá-la a desbloquear mais financiamento. Depois de angariar uma Série B de 215 milhões de dólares no ano passado, há agora rumores de que está a angariar uma nova ronda de financiamento de 500 milhões de euros, com uma avaliação de mais de 1,5 mil milhões de euros.

Fuente