DeepSeek-V4 プレビュー版:百万コンテキストの普及時代へ
本日、私たちの新しいモデルシリーズ DeepSeek-V4 のプレビュー版が正式にリリースされ、同時にオープンソース化されました。
DeepSeek-V4 は百万文字の超長文コンテキストを搭載し、Agent 機能、世界知識、推論性能のいずれにおいても国内およびオープンソース分野でトップクラスの性能を実現しています。モデルはサイズに応じて2つのバージョンに分かれています。

本日より公式サイトで最新の DeepSeek-V4 とチャットすることができ、1M の超長文コンテキストメモリの新しい体験を探索できます。API サービスも同時に更新されており、model_name を deepseek-v4-pro または deepseek-v4-flash に変更することで呼び出すことができます。
DeepSeek-V4-Pro:トップクラスのクローズドソースモデルに匹敵する性能
Agent 機能の大幅な向上:前世代のモデルと比較して、DeepSeek-V4-Pro の Agent 機能は著しく強化されています。Agentic Coding の評価では、V4-Pro は現在のオープンソースモデルの最高レベルに達しており、その他の Agent 関連の評価でも優れた性能を発揮しています。現在、DeepSeek-V4 は社内の従業員が使用する Agentic Coding モデルとなっており、評価のフィードバックによると、使用体験は Sonnet 4.5 より優れており、交付品質は Opus 4.6 の非思考モードに近いものの、Opus 4.6 の思考モードとは依然として一定の差があります。
豊富な世界知識:世界知識の評価において、DeepSeek-V4-Pro は他のオープンソースモデルを大幅にリードしており、トップクラスのクローズドソースモデルである Gemini-Pro-3.1 にわずかに劣るだけです。
世界トップクラスの推論性能:数学、STEM、競技レベルのコードの評価において、DeepSeek-V4-Pro は現在公開されているすべてのオープンソースモデルを凌駕し、世界トップクラスのクローズドソースモデルに匹敵する優れた結果を達成しています。
DeepSeek-V4-Flash:より高速で効率的なコストパフォーマンスの高い選択肢
DeepSeek-V4-Pro と比較すると、DeepSeek-V4-Flash は世界知識の蓄積においてわずかに劣るものの、同等の推論能力を示しています。モデルのパラメータとアクティベーションが小さいため、V4-Flash はより高速でコスト効率の高い API サービスを提供することができます。
Agent の評価では、DeepSeek-V4-Flash は簡単なタスクでは DeepSeek-V4-Pro と同等の性能を発揮しますが、難易度の高いタスクでは依然として差があります。

構造の革新と超高コンテキスト効率
DeepSeek-V4 は、トークン次元で圧縮を行う全新のアテンションメカニズムを開発し、DSA スパースアテンション(DeepSeek Sparse Attention)と組み合わせることで、世界をリードする長文コンテキスト能力を実現し、従来の方法と比較して計算とメモリの要件を大幅に削減しています。今後、1M(100万)のコンテキストは DeepSeek のすべての公式サービスの標準仕様となります。
Agent 機能の特別な最適化
DeepSeek-V4 は、Claude Code、OpenClaw、OpenCode、CodeBuddy などの主流の Agent 製品に対応して最適化されており、コードタスク、ドキュメント生成タスクなどの性能が向上しています。
API アクセス
現在、DeepSeek API は V4-Pro と V4-Flash を同時にリリースしており、OpenAI ChatCompletions インターフェースと Anthropic インターフェースをサポートしています。新しいモデルにアクセスする際、base_url は変更されず、model パラメータを deepseek-v4-pro または deepseek-v4-flash に変更する必要があります。
V4-Pro と V4-Flash の最大コンテキスト長は 1M で、非思考モードと思考モードの両方をサポートしており、思考モードでは reasoning_effort パラメータで思考の強度(high/max)を設定することができます。複雑な Agent シナリオでは、思考モードを使用し、強度を max に設定することを推奨します。
ご注意ください:旧 API インターフェースの2つのモデル名 deepseek-chat と deepseek-reasoner は3か月後(2026-07-24)に廃止されます。現在の段階では、これら2つのモデル名はそれぞれ deepseek-v4-flash の非思考モードと思考モードを指しています。
オープンソースの重みとローカルデプロイ
DeepSeek-V4 モデルのオープンソースリンク:
- Hugging Face:https://huggingface.co/collections/deepseek-ai/deepseek-v4
- ModelScope:https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4
DeepSeek-V4 技術レポート:https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf