DeepSeek-V4 Vorschau: Eintritt in das Zeitalter der Millionen-Kontext-Zugänglichkeit
Heute wird die Vorschauversion unserer brandneuen Modellserie DeepSeek-V4 offiziell gestartet und gleichzeitig Open-Source gestellt.
DeepSeek-V4 verfügt über einen ultra-langen Kontext von einer Million Wörtern, führt sowohl inländisch als auch im Open-Source-Bereich bei Agent-Fähigkeiten, Weltwissen und Reasoning-Leistung. Das Modell ist nach Größe in zwei Versionen unterteilt:

Ab heute können Sie mit dem neuesten DeepSeek-V4 auf der offiziellen Website chatten und die neue Erfahrung des 1M Ultra-Langzeit-Kontextspeichers erkunden. API-Dienste wurden gleichzeitig aktualisiert, und Sie können sie aufrufen, indem Sie model_name auf deepseek-v4-pro oder deepseek-v4-flash ändern.
DeepSeek-V4-Pro: Leistung vergleichbar mit Top-Closed-Source-Modellen
Erheblich verbesserte Agent-Fähigkeiten: Im Vergleich zu previous Generation Modellen sind die Agent-Fähigkeiten von DeepSeek-V4-Pro bemerkenswert verbessert. In Agentic Coding-Bewertungen hat V4-Pro das beste Niveau unter den aktuellen Open-Source-Modellen erreicht und performt auch in anderen Agent-bezogenen Bewertungen hervorragend. Derzeit ist DeepSeek-V4 das von Mitarbeitern verwendete Agentic Coding-Modell. Gemäß Bewertungsfeedback ist die Benutzererfahrung besser als Sonnet 4.5, und die Lieferqualität ist nahe am nicht-inkubativen Modus von Opus 4.6, obwohl noch eine gewisse Lücke zum denkenden Modus von Opus 4.6 besteht.
Reiches Weltwissen: In Weltwissen-Bewertungen führt DeepSeek-V4-Pro andere Open-Source-Modelle deutlich an, nur leicht unterlegen dem Top-Closed-Source-Modell Gemini-Pro-3.1.
Weltklasse Reasoning-Leistung: In Bewertungen von Mathematik, MINT und wettbewerbsfähigem Code übertrifft DeepSeek-V4-Pro alle derzeit öffentlich bewerteten Open-Source-Modelle und erzielt exzellente Ergebnisse, die mit den weltweit besten Closed-Source-Modellen vergleichbar sind.
DeepSeek-V4-Flash: Eine Schnellere und Kostengünstigere Option
Im Vergleich zu DeepSeek-V4-Pro ist DeepSeek-V4-Flash beim Weltwissensvorrat leicht unterlegen, zeigt aber vergleichbare Reasoning-Fähigkeiten. Dank kleinerer Modellparameter und -aktivierung kann V4-Flash schnellere und kosteneffizientere API-Dienste anbieten.
In Agent-Bewertungen ist DeepSeek-V4-Flash bei einfachen Aufgaben mit DeepSeek-V4-Pro auf Augenhöhe, hat aber bei hochschwierigen Aufgaben noch Lücken.

Strukturelle Innovation und Ultra-Hohe Kontext-Effizienz
DeepSeek-V4 hat einen völlig neuen Aufmerksamkeitsmechanismus entwickelt, der in der Token-Dimension komprimiert, kombiniert mit DSA Sparse Attention (DeepSeek Sparse Attention), und erreicht weltweit führende Langzeit-Kontextfähigkeiten bei signifikanter Reduzierung der Rechen- und Speicheranforderungen im Vergleich zu traditionellen Methoden. Von jetzt an wird 1M (eine Million) Kontext der Standard für alle offiziellen DeepSeek-Dienste sein.
Spezielle Optimierung für Agent-Fähigkeiten
DeepSeek-V4 wurde für wichtige Agent-Produkte wie Claude Code, OpenClaw, OpenCode und CodeBuddy angepasst und optimiert, mit verbesserter Leistung bei Code-Aufgaben, Dokumentgenerierungsaufgaben und mehr.
API-Zugang
Derzeit hat DeepSeek API gleichzeitig V4-Pro und V4-Flash gestartet, unterstützt OpenAI ChatCompletions Interface und Anthropic Interface. Beim Zugriff auf die neuen Modelle bleibt base_url unverändert, und der model-Parameter muss auf deepseek-v4-pro oder deepseek-v4-flash geändert werden.
V4-Pro und V4-Flash haben eine maximale Kontextlänge von 1M, beide unterstützen nicht-inkubativen Modus und denkenden Modus, wobei der denkende Modus den reasoning_effort-Parameter unterstützt, um die Denkintensität einzustellen (high/max). Für komplexe Agent-Szenarien wird empfohlen, den denkenden Modus zu verwenden und die Intensität auf max einzustellen.
Bitte beachten Sie: Die beiden alten API-Interfacemodellnamen deepseek-chat und deepseek-reasoner werden in drei Monaten (2026-07-24) eingestellt. In der aktuellen Phase zeigen diese beiden Modellnamen auf den nicht-inkubativen Modus bzw. denkenden Modus von deepseek-v4-flash.
Open-Source-Gewichte und Lokale Bereitstellung
DeepSeek-V4 Modell Open-Source-Links:
- Hugging Face: https://huggingface.co/collections/deepseek-ai/deepseek-v4
- ModelScope: https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4
DeepSeek-V4 technischer Bericht: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf