DeepSeek-V4 預覽版:進入百萬上下文普惠時代

開始使用 DeepSeek

今天,我們全新系列模型 DeepSeek-V4 的預覽版本正式上線並同步開源。

DeepSeek-V4 擁有百萬字超長上下文,在 Agent 能力、世界知識和推理性能上均實現國內與開源領域的領先。模型按大小分為兩個版本:

DeepSeek-V4 模型架構

即日起登錄官網即可與最新的 DeepSeek-V4 對話,探索 1M 超長上下文記憶的全新體驗。API 服務已同步更新,透過修改 model_name 為 deepseek-v4-prodeepseek-v4-flash 即可呼叫。

DeepSeek-V4-Pro:性能比肩頂級閉源模型

Agent 能力大幅提高:相比前代模型,DeepSeek-V4-Pro 的 Agent 能力顯著增強。在 Agentic Coding 評測中,V4-Pro 已達到當前開源模型最佳水平,並在其他 Agent 相關評測中同樣表現優異。目前 DeepSeek-V4 已成為公司內部員工使用的 Agentic Coding 模型,據評測回饋使用體驗優於 Sonnet 4.5,交付品質接近 Opus 4.6 非思考模式,但仍與 Opus 4.6 思考模式存在一定差距。

豐富的世界知識:DeepSeek-V4-Pro 在世界知識測評中,大幅領先其他開源模型,僅稍遜於頂尖閉源模型 Gemini-Pro-3.1。

世界頂級推理性能:在數學、STEM、競賽型代碼的測評中,DeepSeek-V4-Pro 超越目前所有已公開評測的開源模型,取得了比肩世界頂級閉源模型的優異成績。

DeepSeek-V4-Flash:更快捷高效的經濟之選

相比 DeepSeek-V4-Pro,DeepSeek-V4-Flash 在世界知識儲備方面稍遜一籌,但展現出了接近的推理能力。而由於模型參數和激活更小,相較之下 V4-Flash 能夠提供更加快捷、經濟的 API 服務。

在 Agent 測評中,DeepSeek-V4-Flash 在簡單任務上與 DeepSeek-V4-Pro 旗鼓相當,但在高難度任務上仍有差距。

DeepSeek-V4 性能對比

結構創新和超高上下文效率

DeepSeek-V4 開創了一種全新的注意力機制,在 token 維度進行壓縮,結合 DSA 稀疏注意力(DeepSeek Sparse Attention),實現了全球領先的長上下文能力,並且相比於傳統方法大幅降低了對計算和顯存的需求。從現在開始,1M(一百萬)上下文將是 DeepSeek 所有官方服務的標配。

Agent 能力專項優化

DeepSeek-V4 針對 Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流的 Agent 產品進行了適配和優化,在代碼任務、文件生成任務等方面表現均有提升。

API 訪問

目前,DeepSeek API 已同步上線 V4-Pro 與 V4-Flash,支援 OpenAI ChatCompletions 介面與 Anthropic 介面。訪問新模型時,base_url 不變, model 參數需要改為 deepseek-v4-prodeepseek-v4-flash

V4-Pro 與 V4-Flash 最大上下文長度為 1M,均同時支援非思考模式與思考模式,其中思考模式支援 reasoning_effort 參數設定思考強度(high/max)。對於複雜的 Agent 場景建議使用思考模式,並設定強度為 max。

請大家注意:舊有的 API 介面的兩個模型名 deepseek-chatdeepseek-reasoner 將於三個月後(2026-07-24)停止使用。現階段內,這兩個模型名分別指向 deepseek-v4-flash 的非思考模式與思考模式。

開源權重和本地部署

DeepSeek-V4 模型開源鏈接:

DeepSeek-V4 技術報告:https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

開始使用 DeepSeek