DeepSeek-V4 프리뷰: 백만 컨텍스트 보급 시대로 진입

deepseek v4deepseek 공식 웹사이트deepseek 튜토리얼deepseek v4 가격

DeepSeek 사용 시작

오늘, 우리의 새로운 모델 시리즈 DeepSeek-V4의 프리뷰 버전이 정식으로 출시되고 동시에 오픈소스화되었습니다.

DeepSeek-V4는 백만자 분량의 초장문 컨텍스트를 탑재하여 Agent 기능, 세계 지식, 추론 성능 모두에서 국내 및 오픈소스 분야를 선도하고 있습니다. 모델은 크기에 따라 두 가지 버전으로 나뉩니다.

DeepSeek-V4 모델 아키텍처

오늘부터 공식 웹사이트에서 최신 DeepSeek-V4와 채팅할 수 있으며 1M 초장문 컨텍스트 메모리의 새로운 경험을 탐색할 수 있습니다. API 서비스도 동시에 업데이트되었으며 model_name을 deepseek-v4-pro 또는 deepseek-v4-flash로 수정하면 호출할 수 있습니다.

DeepSeek-V4-Pro: 최고 수준의 폐쇄소스 모델에 필적하는 성능

Agent 기능이 크게 향상되었습니다: 이전 세대 모델과 비교하여 DeepSeek-V4-Pro의 Agent 기능은 현저하게 강화되었습니다. Agentic Coding 평가에서 V4-Pro는 현재 오픈소스 모델 중 최고 수준에 도달했으며 다른 Agent 관련 평가에서도 우수한 성능을 보여줍니다. 현재 DeepSeek-V4는 회사 내부 직원들이 사용하는 Agentic Coding 모델이 되었으며 평가 피드백에 따르면 사용 경험은 Sonnet 4.5보다 우수하고 전달 품질은 Opus 4.6 비사고 모드에 가깝지만 Opus 4.6 사고 모드와는 여전히 일정한 격차가 있습니다.

풍부한 세계 지식: 세계 지식 평가에서 DeepSeek-V4-Pro는 다른 오픈소스 모델을 크게 앞서고 있으며 최고 수준의 폐쇄소스 모델인 Gemini-Pro-3.1에 약간 뒤떨어질 뿐입니다.

세계 최고 수준의 추론 성능: 수학, STEM, 경쟁 수준 코드 평가에서 DeepSeek-V4-Pro는 현재 공개된 모든 오픈소스 모델을 능가하며 세계 최고 수준의 폐쇄소스 모델에 필적하는 우수한 성적을 달성했습니다.

DeepSeek-V4-Flash: 더 빠르고 효율적인 비용 효율적인 선택

DeepSeek-V4-Pro와 비교하여 DeepSeek-V4-Flash는 세계 지식 축적 면에서 약간 뒤떨어지지만 유사한 추론 능력을 보여줍니다. 모델 파라미터와 활성화가 더 작기 때문에 V4-Flash는 더 빠르고 비용 효율적인 API 서비스를 제공할 수 있습니다.

Agent 평가에서 DeepSeek-V4-Flash는 간단한 작업에서는 DeepSeek-V4-Pro와 비슷한 성능을 보이지만 고난이도 작업에서는 여전히 격차가 있습니다.

DeepSeek-V4 성능 비교

구조 혁신과 초고 컨텍스트 효율성

DeepSeek-V4는 토큰 차원에서 압축을 수행하는 새로운 어텐션 메커니즘을 개발했으며 DSA 스파스 어텐션(DeepSeek Sparse Attention)과 결합하여 세계 최고 수준의 긴 컨텍스트 능력을 실현하고 기존 방법과 비교하여 계산 및 메모리 요구 사항을 크게 줄였습니다. 앞으로 1M(백만) 컨텍스트는 DeepSeek의 모든 공식 서비스 표준 사양이 될 것입니다.

Agent 기능 특화 최적화

DeepSeek-V4는 Claude Code, OpenClaw, OpenCode, CodeBuddy 등 주류 Agent 제품에 맞춰 최적화되었으며 코드 작업, 문서 생성 작업 등의 성능이 향상되었습니다.

API 액세스

현재 DeepSeek API는 V4-Pro와 V4-Flash를 동시에 출시했으며 OpenAI ChatCompletions 인터페이스와 Anthropic 인터페이스를 지원합니다. 새로운 모델에 액세스할 때 base_url은 변경되지 않으며 model 매개변수를 deepseek-v4-pro 또는 deepseek-v4-flash로 변경해야 합니다.

V4-Pro와 V4-Flash의 최대 컨텍스트 길이는 1M이며 비사고 모드와 사고 모드를 모두 지원하며 사고 모드에서는 reasoning_effort 매개변수로 사고 강도(high/max)를 설정할 수 있습니다. 복잡한 Agent 시나리오에서는 사고 모드를 사용하고 강도를 max로 설정하는 것을 권장합니다.

참고하세요: 기존 API 인터페이스의 두 모델명 deepseek-chatdeepseek-reasoner는 3개월 후(2026-07-24) 서비스가 중단됩니다. 현재 단계에서 이 두 모델명은 각각 deepseek-v4-flash의 비사고 모드와 사고 모드를 가리킵니다.

오픈소스 가중치와 로컬 배포

DeepSeek-V4 모델 오픈소스 링크:

DeepSeek-V4 기술 보고서: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf

DeepSeek 사용 시작

← 블로그