Aperçu DeepSeek-V4: Entrer dans l'Ère de l'Accessibilité du Contexte Million
Aujourd’hui, la version d’aperçu de notre совершенно nuova série de modèles DeepSeek-V4 est officiellement lancée et open source simultanément.
DeepSeek-V4 dispose d’un contexte ultra-long de un million de mots, leader tant au niveau domestique que dans le domaine open source pour les capacités Agent, les connaissances mondiales et les performances de raisonnement. Le modèle est divisé en deux versions selon la taille:

À partir d’aujourd’hui, vous pouvez discuter avec le dernier DeepSeek-V4 sur le site officiel pour explorer la nouvelle expérience de mémoire de contexte ultra-long 1M. Les services API ont été simultanément mis à jour, et vous pouvez les appeler en modifiant model_name en deepseek-v4-pro ou deepseek-v4-flash.
DeepSeek-V4-Pro: Performance Comparable aux Meilleurs Modèles à Source Fermée
Capacités Agent considérablement améliorées: Par rapport aux modèles de génération précédente, les capacités Agent de DeepSeek-V4-Pro ont été remarquablement améliorées. Dans les évaluations de codage Agent, V4-Pro a atteint le meilleur niveau parmi les modèles open source actuels, et Performs également excellemment dans d’autres évaluations liées à l’Agent. Actuellement, DeepSeek-V4 est devenu le modèle de codage Agent utilisé par les employés internes. Selon les commentaires d’évaluation, l’expérience utilisateur est meilleure que Sonnet 4.5, et la qualité de livraison est proche du mode non-pensant d’Opus 4.6, bien qu’il existe encore un certain écart avec le mode pensant d’Opus 4.6.
Connaissances mondiales riches: Dans les évaluations des connaissances mondiales, DeepSeek-V4-Pro devance significativement les autres modèles open source, étant seulement légèrement inférieur au meilleur modèle à source fermée Gemini-Pro-3.1.
Performance de raisonnement de classe mondiale: Dans les évaluations de mathématiques, STEM et de code de niveau compétition, DeepSeek-V4-Pro surpasse tous les modèles open source actuellement évalués publiquement, atteignant d’excellents résultats comparables aux meilleurs modèles à source fermée du monde.
DeepSeek-V4-Flash: Une Option Plus Rapide et Plus Rentable
Par rapport à DeepSeek-V4-Pro, DeepSeek-V4-Flash est légèrement inférieur en réserve de connaissances mondiales mais démontre des capacités de raisonnement comparables. Grâce à des paramètres de modèle plus petits et une activation, V4-Flash peut fournir des services API plus rapides et plus rentables.
Dans les évaluations Agent, DeepSeek-V4-Flash est au même niveau que DeepSeek-V4-Pro dans les tâches simples mais a encore des lacunes dans les tâches de haute difficulté.

Innovation Structurelle et Efficacité de Contexte Ultra-Haute
DeepSeek-V4 a pioneering un mécanisme d’attention совершенно nouveau qui comprime dans la dimension token, combiné avec une attention clairsemée DSA (DeepSeek Sparse Attention), atteignant des capacités de contexte long de niveau mondial et réduisant significativement les exigences de calcul et de mémoire par rapport aux méthodes traditionnelles. À partir de maintenant, 1M (un million) de contexte sera la norme pour tous les services officiels DeepSeek.
Optimisation Spéciale pour les Capacités Agent
DeepSeek-V4 a été adapté et optimisé pour les produits Agent主流 comme Claude Code, OpenClaw, OpenCode et CodeBuddy, avec des performances améliorées dans les tâches de code, les tâches de génération de documents et plus.
Accès API
Actuellement, DeepSeek API a lancé simultanément V4-Pro et V4-Flash, supportant l’interface OpenAI ChatCompletions et l’interface Anthropic. Lors de l’accès aux nouveaux modèles, base_url reste inchangé, et le paramètre model doit être changé en deepseek-v4-pro ou deepseek-v4-flash.
V4-Pro et V4-Flash ont une longueur de contexte maximale de 1M, tous deux supportant le mode non-pensant et le mode pensant, où le mode pensant supporte le paramètre reasoning_effort pour définir l’intensité de la réflexion (high/max). Pour les scénarios Agent complexes, il est recommandé d’utiliser le mode pensant et de définir l’intensité sur max.
Veuillez noter: Les deux anciens noms de modèle d’interface API deepseek-chat et deepseek-reasoner seront discontinués dans trois mois (2026-07-24). À l’étape actuelle, ces deux noms de modèle pointent respectivement vers le mode non-pensant et le mode pensant de deepseek-v4-flash.
Poids Open Source et Déploiement Local
Liens open source du modèle DeepSeek-V4:
- Hugging Face: https://huggingface.co/collections/deepseek-ai/deepseek-v4
- ModelScope: https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4
Rapport technique DeepSeek-V4: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf