DeepSeek V4 Model Explicado: Escala de Parâmetros, Capacidades e Desempenho
DeepSeek V4 Modeldeepseek v4DeepSeek V4modelo de linguagem
O DeepSeek V4 Model eleva o contexto longo para milhões de tokens e introduz multimodalidade nativa com uma nova arquitetura. Este artigo fornece uma explicação concisa sobre a escala de parâmetros, capacidades e desempenho do DeepSeek V4.

1. Parâmetros e Arquitetura
- Escala: A versão completa do V4 tem aproximadamente 1 trilhão de parâmetros MoE, com cerca de 32 bilhões de parâmetros ativados; o V4 Lite, com cerca de 200B, já foi lançado.
- Contexto: Aumentado de 128K para 1 milhão de tokens, tornando-se mais utilizável para bibliotecas inteiras, documentos longos e Agent de múltiplas rodadas.
- Arquitetura: Memória condicional Engram, atenção esparsa DSA e hiperconectividade melhorada mHC, controlando custos e melhorando a estabilidade em contextos longos.
2. Pontos Principais de Capacidade
- Multimodalidade Nativa: Modelagem unificada de texto, imagem e vídeo, suportando geração de imagem a partir de texto, geração de vídeo a partir de texto e raciocínio multimodal.
- Código: Pontuação vazada no SWE-bench Verified de aproximadamente 83.7%, possuindo pensamento de engenharia global.
- Custo: Vantagem de custo de inferência em relação aos concorrentes, beneficiando Agent 7×24 e aplicações em escala.
3. V4 Lite vs. Versão Completa
Atualmente, o V4 Lite já foi lançado; a versão completa deve ter maior quantidade de parâmetros e capacidades, sujeito a confirmação oficial. A direção do DeepSeek V4 Model é contexto longo + multimodalidade nativa + eficiência de custo.
Para experimentar diretamente o DeepSeek V4, clique no botão abaixo.