پیشنمایش DeepSeek-V4: ورود به عصر دسترسی به متن میلیونی
امروز، نسخه پیشنمایش سری جدید مدلهای DeepSeek-V4 به طور رسمی منتشر و همزمان متنباز شد.
DeepSeek-V4 دارای متن فوقالعاده بلند یک میلیون کلمهای است، و در قابلیتهای Agent، دانش جهانی و عملکرد استدلال در داخل و خارج از کشور پیشتاز است. مدل بر اساس اندازه به دو نسخه تقسیم میشود:

از امروز، میتوانید با آخرین DeepSeek-V4 در وبسایت رسمی چت کنید تا تجربه جدید حافظه متنی فوقالعاده بلند 1M را کشف کنید. سرویسهای API نیز همزمان بهروزرسانی شدهاند، و میتوانید با تغییر model_name به deepseek-v4-pro یا deepseek-v4-flash آنها را فراخوانی کنید.
DeepSeek-V4-Pro: عملکرد قابل مقایسه با بهترین مدلهای متنبسته
قابلیتهای Agent به طور قابل توجهی بهبود یافته: compared with نسلهای قبلی مدلها، قابلیتهای Agent در DeepSeek-V4-Pro به طور قابل توجهی تقویت شده است. در ارزیابیهای کدنویسی Agent، V4-Pro به بهترین سطح among مدلهای متنباز فعلی رسیده و در سایر ارزیابیهای مرتبط با Agent نیز عملکرد عالی دارد. Currently، DeepSeek-V4已成为内部员工使用的Agentic Coding模型. بر اساس بازخورد ارزیابی، تجربه کاربری بهتر از Sonnet 4.5 است و کیفیت تحویل نزدیک به حالت non-thinking از Opus 4.6 است، اگرچه هنوز شکافی با حالت thinking از Opus 4.6 exists.
دانش جهانی غنی: در ارزیابیهای دانش جهانی، DeepSeek-V4-Pro به طور قابل توجهی از سایر مدلهای متنباز پیشتاز است، only slightly inferior to بهترین مدل متنبسته Gemini-Pro-3.1.
عملکرد استدلال در سطح جهانی: در ارزیابیهای ریاضیات، STEM و کد سطح مسابقه، DeepSeek-V4-Pro از all currently publicly evaluated open-source models پیشی میگیرد و نتایج excellent comparable به بهترین مدلهای متنبسته جهان را کسب میکند.
DeepSeek-V4-Flash: گزینه سریعتر و مقرونبهصرفهتر
در مقایسه با DeepSeek-V4-Pro، DeepSeek-V4-Flash در ذخیره دانش جهانی کمی ضعیفتر است اما قابلیتهای استدلال مشابهی نشان میدهد. Due to پارامترهای کوچکتر مدل و فعالسازی، V4-Flash میتواند سرویسهای API سریعتر و مقرونبهصرفهتری ارائه دهد.
در ارزیابیهای Agent، DeepSeek-V4-Flash در وظایف ساده با DeepSeek-V4-Pro برابر است اما در وظایف با دشواری بالا still has gaps.

نوآوری ساختاری و کارایی متنی فوقالعاده بالا
DeepSeek-V4 یک مکانیزم توجه کاملاً جدید را pioneered کرده که در بعد token فشرده میشود، ترکیب شده با DSA Sparse Attention (DeepSeek Sparse Attention)، دستیابی به قابلیتهای متن طولانی در سطح جهانی و کاهش قابل توجه نیازهای محاسباتی و حافظه compared to روشهای سنتی. از now on، 1M (یک میلیون) متن استاندارد برای all official DeepSeek services خواهد بود.
بهینهسازی ویژه برای قابلیتهای Agent
DeepSeek-V4 برای محصولات Agent اصلی مانند Claude Code، OpenClaw، OpenCode و CodeBuddy تطبیق و بهینهسازی شده، with improved performance in وظایف کد، وظایف تولید سند و موارد دیگر.
دسترسی به API
Currently، DeepSeek API همزمان V4-Pro و V4-Flash را راهاندازی کرده، از OpenAI ChatCompletions interface و Anthropic interface پشتیبانی میکند. When accessing the new models، base_url unchanged میماند، و پارامتر model needs to be changed to deepseek-v4-pro یا deepseek-v4-flash.
V4-Pro و V4-Flash حداکثر طول متن 1M دارند، هر دو از حالت non-thinking و thinking mode پشتیبانی میکنند، where thinking mode از پارامتر reasoning_effort برای تنظیم شدت تفکر (high/max) پشتیبانی میکند. For complex Agent scenarios، استفاده از حالت thinking و تنظیم شدت on max recommended.
لطفاً توجه کنید: دو نام قدیمی مدل API interface deepseek-chat و deepseek-reasoner در سه ماه آینده (2026-07-24) متوقف خواهند شد. At the current stage، این دو نام مدل به ترتیب به حالت non-thinking و thinking mode از deepseek-v4-flash اشاره میکنند.
وزنهای متنباز و استقرار محلی
لینکهای متنباز مدل DeepSeek-V4:
- Hugging Face: https://huggingface.co/collections/deepseek-ai/deepseek-v4
- ModelScope: https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4
گزارش فنی DeepSeek-V4: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf