Início Tecnologia DeepSeek apresenta novo modelo de IA que ‘fecha a lacuna’ com modelos...

DeepSeek apresenta novo modelo de IA que ‘fecha a lacuna’ com modelos de fronteira

20
0
A man takes photos of a DeepSeek display at a shopping mall in Hangzhou

O laboratório chinês de IA DeepSeek lançou duas versões prévias de seu mais novo modelo de linguagem grande, DeepSeek V4, uma atualização muito esperada para o modelo V3.2 do ano passado e o modelo de raciocínio R1 que o acompanha que conquistou o mundo da IA.

A empresa afirma que tanto o DeepSeek V4 Flash quanto o V4 Pro são modelos mistos de especialistas com janelas de contexto de 1 milhão de tokens cada – o suficiente para permitir que grandes bases de código ou documentos sejam usados ​​em prompts. A mistura de especialistas envolve uma abordagem que ativa apenas um certo número de parâmetros por tarefa para reduzir os custos de inferência.

O modelo Pro tem um total de 1,6 trilhão de parâmetros (49 bilhões ativos), o que o torna o maior modelo de peso aberto disponível, superando o Kimi K 2.6 da Moonshot AI (1,1 trilhão), o M1 da MiniMax (456 bilhões) e mais que o dobro do DeepSeek V3.2 (671 bilhões). O menor, o V4 Flash, possui 284 bilhões de parâmetros (13 bilhões ativos).

DeepSeek diz que ambos os modelos são mais eficientes e de desempenho do que DeepSeek V3.2 devido a melhorias arquitetônicas, e quase “fecharam a lacuna” com os modelos líderes atuais, tanto abertos quanto fechados, em benchmarks de raciocínio.

A empresa afirma que seu novo modelo V4-Pro-Max supera seus pares de código aberto em benchmarks de raciocínio e supera o GPT-5.2 e Gemini 3.0 Pro da OpenAI em algumas tarefas. Ao codificar benchmarks de competição, DeepSeek disse que o desempenho de ambos os modelos V4 é “comparável ao GPT-5.4”.

No entanto, os modelos parecem ficar um pouco atrás dos modelos de fronteira em testes de conhecimento, especificamente o GPT-5.4 da OpenAI e o mais recente Gemini 3.1 Pro do Google. Este atraso sugere uma “trajetória de desenvolvimento que acompanha os modelos de fronteira de última geração em aproximadamente 3 a 6 meses”, escreveu o laboratório.

Tanto o V4 Flash quanto o V4 Pro suportam apenas texto, ao contrário de muitos de seus pares de código fechado, que oferecem suporte para compreensão e geração de áudio, vídeo e imagens.

Evento Techcrunch

São Francisco, Califórnia
|
13 a 15 de outubro de 2026

Notavelmente, o DeepSeek V4 é muito mais acessível do que qualquer modelo de fronteira disponível atualmente. O modelo V4 Flash menor custa US$ 0,14 por milhão de tokens de entrada e US$ 0,28 por milhão de tokens de saída, superando o GPT-5.4 Nano, Gemini 3.1 Flash, GPT-5.4 Mini e Claude Haiku 4.5. O modelo maior V4 Pro, por sua vez, custa US$ 0,145 por milhão de tokens de entrada e US$ 3,48 por milhão de tokens de saída, também superando o Gemini 3.1 Pro, GPT-5.5, Claude Opus 4.7 e GPT-5.4.

O lançamento ocorre um dia depois de os EUA acusarem a China de roubar IP de laboratórios de IA americanos em escala industrial usando milhares de contas proxy. O próprio DeepSeek foi acusado pela Anthropic e OpenAI de “destilar”, essencialmente copiar, seus modelos de IA.

Quando você compra por meio de links em nossos artigos, podemos ganhar uma pequena comissão. Isso não afeta nossa independência editorial.

Fuente