Vista Previa de DeepSeek-V4: Entrando en la Era de la Accesibilidad del Contexto de Millón

deepseek v4sitio oficial de deepseektutorial de deepseekprecios de deepseek v4

Comenzar a usar DeepSeek

Hoy, la versión preliminar de nuestra совершенно nueva serie de modelos DeepSeek-V4 se lanza oficialmente y se hace de código abierto simultáneamente.

DeepSeek-V4 cuenta con contexto ultra largo de un millón de palabras, liderazgo tanto en el ámbito doméstico como en el de código abierto en capacidades de Agent, conocimiento mundial y rendimiento de razonamiento. El modelo se divide en dos versiones según su tamaño:

Arquitectura del Modelo DeepSeek-V4

A partir de hoy, puedes chatear con el último DeepSeek-V4 en el sitio web oficial para explorar la nueva experiencia de memoria de contexto ultra largo 1M. Los servicios API se han actualizado simultáneamente, y puedes llamarlos modificando model_name a deepseek-v4-pro o deepseek-v4-flash.

DeepSeek-V4-Pro: Rendimiento Comparable a los Mejores Modelos de Código Cerrado

Capacidades de Agent notablemente mejoradas: En comparación con modelos de generación anterior, las capacidades de Agent de DeepSeek-V4-Pro se han mejorado remarkablemente. En evaluaciones de Agentic Coding, V4-Pro ha alcanzado el mejor nivel entre los modelos de código abierto actuales, y también tiene un excelente rendimiento en otras evaluaciones relacionadas con Agent. Actualmente, DeepSeek-V4 se ha convertido en el modelo de Agentic Coding utilizado por los empleados internos. Según los comentarios de evaluación, la experiencia del usuario es mejor que Sonnet 4.5, y la calidad de entrega está cerca del modo no pensante de Opus 4.6, aunque todavía existe una cierta brecha con el modo pensante de Opus 4.6.

Conocimiento mundial rico: En evaluaciones de conocimiento mundial, DeepSeek-V4-Pro supera significativamente a otros modelos de código abierto, siendo solo ligeramente inferior al mejor modelo de código cerrado Gemini-Pro-3.1.

Rendimiento de razonamiento de clase mundial: En evaluaciones de matemáticas, STEM y código de nivel competitivo, DeepSeek-V4-Pro supera a todos los modelos de código abierto evaluados públicamente actualmente, logrando excelentes resultados comparables a los mejores modelos de código cerrado del mundo.

DeepSeek-V4-Flash: Una Opción Más Rápida y Más Costo-Efectiva

En comparación con DeepSeek-V4-Pro, DeepSeek-V4-Flash es ligeramente inferior en reserva de conocimiento mundial pero demuestra capacidades de razonamiento comparables. Debido a parámetros de modelo más pequeños y activación, V4-Flash puede proporcionar servicios API más rápidos y más costo-efectivos.

En evaluaciones de Agent, DeepSeek-V4-Flash está al nivel de DeepSeek-V4-Pro en tareas simples pero todavía tiene brechas en tareas de alta dificultad.

Comparación de Rendimiento de DeepSeek-V4

Innovación Estructural y Eficiencia de Contexto Ultra Alta

DeepSeek-V4 ha pionero un mecanismo de atención completamente nuevo que comprime en la dimensión de token, combinado con atención dispersa DSA (DeepSeek Sparse Attention), logrando capacidades de contexto largo de nivel mundial y reduciendo significativamente los requisitos de computación y memoria en comparación con métodos tradicionales. A partir de ahora, 1M (un millón) de contexto será el estándar para todos los servicios oficiales de DeepSeek.

Optimización Especial para Capacidades de Agent

DeepSeek-V4 ha sido adaptado y optimizado para productos Agent主流 como Claude Code, OpenClaw, OpenCode y CodeBuddy, con rendimiento mejorado en tareas de código, tareas de generación de documentos y más.

Acceso a API

Actualmente, DeepSeek API ha lanzado simultáneamente V4-Pro y V4-Flash, soportando interfaz OpenAI ChatCompletions e interfaz Anthropic. Al acceder a los nuevos modelos, base_url permanece sin cambios, y el parámetro de modelo necesita ser cambiado a deepseek-v4-pro o deepseek-v4-flash.

V4-Pro y V4-Flash tienen una longitud de contexto máxima de 1M, ambos soportando modo no pensante y modo pensante, donde el modo pensante soporta el parámetro reasoning_effort para establecer la intensidad del pensamiento (high/max). Para escenarios de Agent complejos, se recomienda usar el modo pensante y establecer la intensidad en max.

Por favor note: Los dos nombres de interfaz de modelo API antiguos deepseek-chat y deepseek-reasoner serão descontinuados en tres meses (2026-07-24). En la etapa actual, estos dos nombres de modelo apuntan al modo no pensante y modo pensante de deepseek-v4-flash respectivamente.

Pesos de Código Abierto y Implementación Local

Enlaces de código abierto del modelo DeepSeek-V4:

Informe técnico de DeepSeek-V4: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

Comenzar a usar DeepSeek

← Blog