Cara Menilai Pelancaran Rasmi DeepSeek V4 yang Diumum di Twitter pada 22 April

Mula Menggunakan DeepSeek

DeepSeek-V4 telah Sampai: Konteks Jutaan Bukan Gimmick, Tetapi Asas untuk Agents Generasi Seterusnya

Selepas lama menunggu, DeepSeek-V4 secara rasmi diumum pada 22 April. Dari perspektif seni bina keseluruhan, V4 jelas merupakan model besar generasi baharu yang direkonstruksi di sekitar “kecekapan konteks ultra-panjang”, bertujuan untuk menyelesaikan titik sakit industri daripada kos inferens konteks panjang yang tinggi.

Pelancaran baharu ini menampilkan keupayaan konteks ultra-panjang jutaan token, достигая ведущих показателей dalam keupayaan Agent, pengetahuan dunia dan prestasi penaakulan antara model domestik dan sumber terbuka. Model ini datang dalam dua versi, kedua-duanya menyokong panjang konteks 1M, dan telah secara langsung dibuat sumber terbuka.

Bagaimanakah Prestasi Model?

Pertama sekali, prestasi V4 sudah setanding dengan model sumber tertutup teratas:

Keupayaan Agent yang Significantly Improved

Berbanding dengan model generasi sebelumnya, keupayaan Agent DeepSeek-V4-Pro telah ditingkat secara signifikan. Dalam penilaian Agentic Coding, V4-Pro telah mencapai tahap terbaik dalam kalangan model sumber terbuka semasa.

Pengetahuan Dunia yang Kaya

Dalam penilaian pengetahuan dunia, DeepSeek-V4-Pro mendahului dengan ketaranya model sumber terbuka lain.

Prestasi Penaakulan Kelas Dunia

Dalam penilaian matematik, STEM dan kod tahap pertandingan, DeepSeek-V4-Pro melebihi semua model sumber terbuka yang kini dinilai secara awam.

Inovasi Struktur dan Kecekapan Konteks Ultra-Tinggi

DeepSeek-V4 telah memperkenalkan механизм внимания совершенно нового типа, который сжимает в измерении токена, в сочетании с DSA Sparse Attention, достигая мирового уровня возможностей длинного контекста и значительно снижая требования к вычислениям и памяти по сравнению с традиционными методами.从此以后,1M上下文将成为所有官方服务的标准。

Pengoptimuman Khas untuk Keupayaan Agent

DeepSeek-V4 telah disesuaikan dan dioptimumkan untuk produk Agent utama seperti Claude Code, OpenClaw, OpenCode dan CodeBuddy。

seni bina Model Versi Baharu

DeepSeek secara rasmi telah mengeluarkan kertas teknikal yang memperincikan pelaksanaan teknikal V4。纸张明确指出,当前的推理模型严重依赖test-time scaling,但传统注意力的二次复杂性使超长上下文变得越来越昂贵。

CSA + HCA: Kad As Sebenar V4

这是整篇论文最关键的部分。V4没有继续原有的密集注意力路径,而是设计了一种混合注意力架构。

mHC: Latihan Lebih Stabil

V4的另一个重要升级是mHC (Manifold-Constrained Hyper-Connections),它主要解决三个问题。

Muon: V4中大量使用的优化器

论文非常强调Muon优化器。

V4的效率提升有多令人印象深刻?

本文最具影响力的数据是主页上的效率对比图。在1M token上下文下:

  • DeepSeek-V4-Pro的单token推理FLOPs仅为DeepSeek-V3.2的27%,KV缓存仅为V3.2的10%
  • DeepSeek-V4-Flash更加激进,单token FLOPs仅为10%,KV缓存仅为7%

最终想法

V4这次的核心价值在于:它从注意力机制、KV缓存、训练稳定性到优化器,完全围绕”长上下文可用性”重新设计。

Mula Menggunakan DeepSeek