DeepSeek-V4 Vorschau: Eintritt in das Zeitalter der Millionen-Kontext-Zugänglichkeit

deepseek v4deepseek offizielle websitedeepseek tutorialdeepseek v4 preisgestaltung

Jetzt DeepSeek nutzen

Heute wird die Vorschauversion unserer brandneuen Modellserie DeepSeek-V4 offiziell gestartet und gleichzeitig Open-Source gestellt.

DeepSeek-V4 verfügt über einen ultra-langen Kontext von einer Million Wörtern, führt sowohl inländisch als auch im Open-Source-Bereich bei Agent-Fähigkeiten, Weltwissen und Reasoning-Leistung. Das Modell ist nach Größe in zwei Versionen unterteilt:

DeepSeek-V4 Modellarchitektur

Ab heute können Sie mit dem neuesten DeepSeek-V4 auf der offiziellen Website chatten und die neue Erfahrung des 1M Ultra-Langzeit-Kontextspeichers erkunden. API-Dienste wurden gleichzeitig aktualisiert, und Sie können sie aufrufen, indem Sie model_name auf deepseek-v4-pro oder deepseek-v4-flash ändern.

DeepSeek-V4-Pro: Leistung vergleichbar mit Top-Closed-Source-Modellen

Erheblich verbesserte Agent-Fähigkeiten: Im Vergleich zu previous Generation Modellen sind die Agent-Fähigkeiten von DeepSeek-V4-Pro bemerkenswert verbessert. In Agentic Coding-Bewertungen hat V4-Pro das beste Niveau unter den aktuellen Open-Source-Modellen erreicht und performt auch in anderen Agent-bezogenen Bewertungen hervorragend. Derzeit ist DeepSeek-V4 das von Mitarbeitern verwendete Agentic Coding-Modell. Gemäß Bewertungsfeedback ist die Benutzererfahrung besser als Sonnet 4.5, und die Lieferqualität ist nahe am nicht-inkubativen Modus von Opus 4.6, obwohl noch eine gewisse Lücke zum denkenden Modus von Opus 4.6 besteht.

Reiches Weltwissen: In Weltwissen-Bewertungen führt DeepSeek-V4-Pro andere Open-Source-Modelle deutlich an, nur leicht unterlegen dem Top-Closed-Source-Modell Gemini-Pro-3.1.

Weltklasse Reasoning-Leistung: In Bewertungen von Mathematik, MINT und wettbewerbsfähigem Code übertrifft DeepSeek-V4-Pro alle derzeit öffentlich bewerteten Open-Source-Modelle und erzielt exzellente Ergebnisse, die mit den weltweit besten Closed-Source-Modellen vergleichbar sind.

DeepSeek-V4-Flash: Eine Schnellere und Kostengünstigere Option

Im Vergleich zu DeepSeek-V4-Pro ist DeepSeek-V4-Flash beim Weltwissensvorrat leicht unterlegen, zeigt aber vergleichbare Reasoning-Fähigkeiten. Dank kleinerer Modellparameter und -aktivierung kann V4-Flash schnellere und kosteneffizientere API-Dienste anbieten.

In Agent-Bewertungen ist DeepSeek-V4-Flash bei einfachen Aufgaben mit DeepSeek-V4-Pro auf Augenhöhe, hat aber bei hochschwierigen Aufgaben noch Lücken.

DeepSeek-V4 Leistungsvergleich

Strukturelle Innovation und Ultra-Hohe Kontext-Effizienz

DeepSeek-V4 hat einen völlig neuen Aufmerksamkeitsmechanismus entwickelt, der in der Token-Dimension komprimiert, kombiniert mit DSA Sparse Attention (DeepSeek Sparse Attention), und erreicht weltweit führende Langzeit-Kontextfähigkeiten bei signifikanter Reduzierung der Rechen- und Speicheranforderungen im Vergleich zu traditionellen Methoden. Von jetzt an wird 1M (eine Million) Kontext der Standard für alle offiziellen DeepSeek-Dienste sein.

Spezielle Optimierung für Agent-Fähigkeiten

DeepSeek-V4 wurde für wichtige Agent-Produkte wie Claude Code, OpenClaw, OpenCode und CodeBuddy angepasst und optimiert, mit verbesserter Leistung bei Code-Aufgaben, Dokumentgenerierungsaufgaben und mehr.

API-Zugang

Derzeit hat DeepSeek API gleichzeitig V4-Pro und V4-Flash gestartet, unterstützt OpenAI ChatCompletions Interface und Anthropic Interface. Beim Zugriff auf die neuen Modelle bleibt base_url unverändert, und der model-Parameter muss auf deepseek-v4-pro oder deepseek-v4-flash geändert werden.

V4-Pro und V4-Flash haben eine maximale Kontextlänge von 1M, beide unterstützen nicht-inkubativen Modus und denkenden Modus, wobei der denkende Modus den reasoning_effort-Parameter unterstützt, um die Denkintensität einzustellen (high/max). Für komplexe Agent-Szenarien wird empfohlen, den denkenden Modus zu verwenden und die Intensität auf max einzustellen.

Bitte beachten Sie: Die beiden alten API-Interfacemodellnamen deepseek-chat und deepseek-reasoner werden in drei Monaten (2026-07-24) eingestellt. In der aktuellen Phase zeigen diese beiden Modellnamen auf den nicht-inkubativen Modus bzw. denkenden Modus von deepseek-v4-flash.

Open-Source-Gewichte und Lokale Bereitstellung

DeepSeek-V4 Modell Open-Source-Links:

DeepSeek-V4 technischer Bericht: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

Jetzt DeepSeek nutzen

← Blog