Anteprima DeepSeek-V4: Entrando nell'Era dell'Accessibilità del Contesto Millionario
Oggi, la versione di anteprima della nostra совершенно nuova serie di modelli DeepSeek-V4 è stata ufficialmente lanciata e resa open-source simultaneamente.
DeepSeek-V4 presenta un contesto ultra-lungo di un milione di parole, liderando sia nel campo domestico che in quello open-source nelle capacità Agent, conoscenza mondiale e performance di ragionamento. Il modello è diviso in due versioni basate sulla dimensione:
Dall’oggi, potete chattare con l’ultimo DeepSeek-V4 sul sito ufficiale per esplorare la nuova esperienza di memoria contestuale ultra-lunga 1M. I servizi API sono stati aggiornati simultaneamente, e potete chiamarli modificando model_name in deepseek-v4-pro o deepseek-v4-flash.
DeepSeek-V4-Pro: Performance Paragonabile ai Migliori Modelli Closed-Source
Capacità Agent significativamente migliorate: Rispetto ai modelli di generazione precedente, le capacità Agent di DeepSeek-V4-Pro sono state remarkabbilmente migliorate. Nelle valutazioni di Agentic Coding, V4-Pro ha raggiunto il miglior livello tra i modelli open-source attuali, e performa anche eccellentemente in altre valutazioni relative all’Agent. Attualmente, DeepSeek-V4 è diventato il modello di Agentic Coding usato dai dipendenti interni. Secondo il feedback delle valutazioni, l’esperienza utente è migliore di Sonnet 4.5, e la qualità di consegna è vicina alla modalità non-pensante di Opus 4.6, sebbene ci sia ancora un certo divario con la modalità pensante di Opus 4.6.
Conoscenza mondiale ricca: Nelle valutazioni della conoscenza mondiale, DeepSeek-V4-Pro significantly leads other open-source models, being solo leggermente inferiore al miglior modello closed-source Gemini-Pro-3.1.
Performance di ragionamento di classe mondiale: Nelle valutazioni di matematica, STEM e codice di livello competitivo, DeepSeek-V4-Pro surpasses all currently publicly evaluated open-source models, achieving excellent results paragonabili ai migliori modelli closed-source mondiali.
DeepSeek-V4-Flash: Un’Opzione Più Veloce e Più Costo-Efficace
Rispetto a DeepSeek-V4-Pro, DeepSeek-V4-Flash è leggermente inferiore nella riserva di conoscenza mondiale ma demonstra capacità di ragionamento comparabili. Grazie a parametri di modello più piccoli e attivazione, V4-Flash può fornire servizi API più veloci e più costo-efilicaci.
Nelle valutazioni Agent, DeepSeek-V4-Flash è allo stesso livello di DeepSeek-V4-Pro nei compiti semplici ma ha ancora divari nei compiti ad alta difficoltà.
Innovazione Strutturale e Eficienza Contestuale Ultra-Alta
DeepSeek-V4 ha pionierato un mecanismo di attenzione совершенно nuovo che comprime nella dimensione del token, combinato con DSA sparse attention (DeepSeek Sparse Attention), raggiungendo capacità contestuali lunghe di livello mondiale e riducendo significativamente i requisiti di calcolo e memoria rispetto ai metodi tradizionali. Da ora in poi, 1M (un milione) di contesto sarà lo standard per tutti i servizi ufficiali DeepSeek.
Ottimizzazione Speciale per le Capacità Agent
DeepSeek-V4 è stato adattato e ottimizzato per prodotti Agent mainstream come Claude Code, OpenClaw, OpenCode e CodeBuddy, con performance migliorate in compiti di codice, compiti di generazione di documenti e altro.
Accesso API
Attualmente, DeepSeek API ha lanciato simultaneamente V4-Pro e V4-Flash, supportando l’interfaccia OpenAI ChatCompletions e l’interfaccia Anthropic. Quando si accede ai nuovi modelli, base_url rimane invariato, e il parametro model deve essere cambiato in deepseek-v4-pro o deepseek-v4-flash.
V4-Pro e V4-Flash hanno una lunghezza contestuale massima di 1M, entrambi supportando la modalità non-pensante e pensante, dove la modalità pensante supporta il parametro reasoning_effort per impostare l’intensità del ragionamento (high/max). Per scenari Agent complessi, si raccomanda di usare la modalità pensante e impostare l’intensità su max.
Si prega di notare: I due vecchi nomi di modello dell’interfaccia API deepseek-chat e deepseek-reasoner saranno dismessi tra tre mesi (2026-07-24). Nello stadio attuale, questi due nomi di modello puntano rispettivamente alla modalità non-pensante e pensante di deepseek-v4-flash.
Pesi Open-Source e Deployment Locale
Link open-source del modello DeepSeek-V4:
- Hugging Face: https://huggingface.co/collections/deepseek-ai/deepseek-v4
- ModelScope: https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4
Rapporto tecnico DeepSeek-V4: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf