پیش‌نمایش DeepSeek-V4: ورود به عصر دسترسی به متن میلیونی

deepseek v4وب‌سایت رسمی deepseekآموزش deepseekقیمت‌گذاری deepseek v4

شروع استفاده از DeepSeek

امروز، نسخه پیش‌نمایش سری جدید مدل‌های DeepSeek-V4 به طور رسمی منتشر و همزمان متن‌باز شد.

DeepSeek-V4 دارای متن فوق‌العاده بلند یک میلیون کلمه‌ای است، و در قابلیت‌های Agent، دانش جهانی و عملکرد استدلال در داخل و خارج از کشور پیشتاز است. مدل بر اساس اندازه به دو نسخه تقسیم می‌شود:

معماری مدل DeepSeek-V4

از امروز، می‌توانید با آخرین DeepSeek-V4 در وب‌سایت رسمی چت کنید تا تجربه جدید حافظه متنی فوق‌العاده بلند 1M را کشف کنید. سرویس‌های API نیز همزمان به‌روزرسانی شده‌اند، و می‌توانید با تغییر model_name به deepseek-v4-pro یا deepseek-v4-flash آنها را فراخوانی کنید.

DeepSeek-V4-Pro: عملکرد قابل مقایسه با بهترین مدل‌های متن‌بسته

قابلیت‌های Agent به طور قابل توجهی بهبود یافته: compared with نسل‌های قبلی مدل‌ها، قابلیت‌های Agent در DeepSeek-V4-Pro به طور قابل توجهی تقویت شده است. در ارزیابی‌های کدنویسی Agent، V4-Pro به بهترین سطح among مدل‌های متن‌باز فعلی رسیده و در سایر ارزیابی‌های مرتبط با Agent نیز عملکرد عالی دارد. Currently، DeepSeek-V4已成为内部员工使用的Agentic Coding模型. بر اساس بازخورد ارزیابی، تجربه کاربری بهتر از Sonnet 4.5 است و کیفیت تحویل نزدیک به حالت non-thinking از Opus 4.6 است، اگرچه هنوز شکافی با حالت thinking از Opus 4.6 exists.

دانش جهانی غنی: در ارزیابی‌های دانش جهانی، DeepSeek-V4-Pro به طور قابل توجهی از سایر مدل‌های متن‌باز پیشتاز است، only slightly inferior to بهترین مدل متن‌بسته Gemini-Pro-3.1.

عملکرد استدلال در سطح جهانی: در ارزیابی‌های ریاضیات، STEM و کد سطح مسابقه، DeepSeek-V4-Pro از all currently publicly evaluated open-source models پیشی می‌گیرد و نتایج excellent comparable به بهترین مدل‌های متن‌بسته جهان را کسب می‌کند.

DeepSeek-V4-Flash: گزینه سریع‌تر و مقرون‌به‌صرفه‌تر

در مقایسه با DeepSeek-V4-Pro، DeepSeek-V4-Flash در ذخیره دانش جهانی کمی ضعیف‌تر است اما قابلیت‌های استدلال مشابهی نشان می‌دهد. Due to پارامترهای کوچکتر مدل و فعال‌سازی، V4-Flash می‌تواند سرویس‌های API سریع‌تر و مقرون‌به‌صرفه‌تری ارائه دهد.

در ارزیابی‌های Agent، DeepSeek-V4-Flash در وظایف ساده با DeepSeek-V4-Pro برابر است اما در وظایف با دشواری بالا still has gaps.

مقایسه عملکرد DeepSeek-V4

نوآوری ساختاری و کارایی متنی فوق‌العاده بالا

DeepSeek-V4 یک مکانیزم توجه کاملاً جدید را pioneered کرده که در بعد token فشرده می‌شود، ترکیب شده با DSA Sparse Attention (DeepSeek Sparse Attention)، دستیابی به قابلیت‌های متن طولانی در سطح جهانی و کاهش قابل توجه نیازهای محاسباتی و حافظه compared to روش‌های سنتی. از now on، 1M (یک میلیون) متن استاندارد برای all official DeepSeek services خواهد بود.

بهینه‌سازی ویژه برای قابلیت‌های Agent

DeepSeek-V4 برای محصولات Agent اصلی مانند Claude Code، OpenClaw، OpenCode و CodeBuddy تطبیق و بهینه‌سازی شده، with improved performance in وظایف کد، وظایف تولید سند و موارد دیگر.

دسترسی به API

Currently، DeepSeek API همزمان V4-Pro و V4-Flash را راه‌اندازی کرده، از OpenAI ChatCompletions interface و Anthropic interface پشتیبانی می‌کند. When accessing the new models، base_url unchanged می‌ماند، و پارامتر model needs to be changed to deepseek-v4-pro یا deepseek-v4-flash.

V4-Pro و V4-Flash حداکثر طول متن 1M دارند، هر دو از حالت non-thinking و thinking mode پشتیبانی می‌کنند، where thinking mode از پارامتر reasoning_effort برای تنظیم شدت تفکر (high/max) پشتیبانی می‌کند. For complex Agent scenarios، استفاده از حالت thinking و تنظیم شدت on max recommended.

لطفاً توجه کنید: دو نام قدیمی مدل API interface deepseek-chat و deepseek-reasoner در سه ماه آینده (2026-07-24) متوقف خواهند شد. At the current stage، این دو نام مدل به ترتیب به حالت non-thinking و thinking mode از deepseek-v4-flash اشاره می‌کنند.

وزن‌های متن‌باز و استقرار محلی

لینک‌های متن‌باز مدل DeepSeek-V4:

گزارش فنی DeepSeek-V4: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

شروع استفاده از DeepSeek

← وبلاگ