DeepSeek V4 발표: 2026년 4월 24일에 공개된 모든 것
2026년 4월 24일, DeepSeek는 올해 가장 중요한 오픈소스 AI 발표 중 하나를 선보였습니다: DeepSeek V4 프리뷰 릴리즈로, V4-Pro와 V4-Flash 두 가지 모델이 오픈 웨이트, 즉시 API 접근, 완전한 기술 보고서와 함께 공개되었습니다. 발표된 모든 내용을 종합 정리합니다.
발표 개요
DeepSeek의 공식 발표는 간결하지만 강렬한 문구로 시작되었습니다:
🚀 DeepSeek-V4 Preview가 공식 출시 및 오픈소스화되었습니다! 비용 효율적인 100만 토큰 컨텍스트의 시대에 오신 것을 환영합니다.
발표는 2026년 4월 24일 DeepSeek의 공식 API 문서 페이지와 소셜 미디어 계정을 통해 이루어졌으며, 다음이 동시에 공개되었습니다:
- HuggingFace 및 ModelScope의 모델 웨이트
- 업데이트된 API(동일한 베이스 URL, 새로운 모델명)
- HuggingFace 레포지토리의 기술 보고서 PDF(
DeepSeek_V4.pdf) - chat.deepseek.com의 채팅 인터페이스 업데이트
발표된 두 가지 모델
DeepSeek-V4-Pro
"세계 최고 수준의 클로즈드소스 모델에 견줄 수 있는 성능."
- 총 파라미터 1.6T / 활성 49B (MoE)
- MIT 라이선스, 오픈 웨이트
- API에서
deepseek-v4-pro로 사용 가능 - 입력 $1.74 / 출력 $3.48 (100만 토큰당)
- 다운로드 크기: 약 865 GB
- chat.deepseek.com의 Expert 모드
DeepSeek-V4-Flash
"빠르고 효율적이며 경제적인 선택."
- 총 파라미터 284B / 활성 13B (MoE)
- MIT 라이선스, 오픈 웨이트
- API에서
deepseek-v4-flash로 사용 가능 - 입력 $0.14 / 출력 $0.28 (100만 토큰당)
- 다운로드 크기: 약 160 GB
- chat.deepseek.com의 Instant 모드
4가지 핵심 주장
DeepSeek는 V4의 특징을 네 가지 핵심 축으로 구성하여 발표했습니다:
1. DeepSeek-V4-Pro: 프론티어급 성능
- 강화된 에이전트 기능: 에이전틱 코딩 벤치마크에서 오픈소스 SOTA 달성
- 풍부한 세계 지식: 현재 오픈 모델 중 최상위. 세계 지식에서는 Gemini-3.1-Pro에만 뒤처짐
- 세계 수준의 추론: 수학/STEM/코딩에서 현재 모든 오픈 모델을 능가하며 최상위 클로즈드소스 모델에 필적
2. DeepSeek-V4-Flash: Pro에 가까운 성능을 훨씬 낮은 비용으로
- 추론 능력이 V4-Pro에 근접
- 간단한 에이전트 작업에서 V4-Pro와 동등한 성능
- 더 작은 파라미터 크기 = 더 빠른 응답 속도 + 높은 비용 효율의 API 가격
3. 구조적 혁신과 초고효율 컨텍스트
- 혁신적인 어텐션: 토큰 단위 압축 + DSA (DeepSeek Sparse Attention / CSA+HCA 하이브리드)
- 최고의 효율: 대폭 줄어든 연산·메모리 비용으로 세계 최고 수준의 긴 컨텍스트 처리
- 100만 토큰 표준화: 모든 공식 DeepSeek 서비스에서 100만 컨텍스트가 기본값으로 설정
4. 에이전트 기능 전용 최적화
- Claude Code, OpenClaw, OpenCode 등 주요 AI 에이전트와 원활하게 통합
- 이미 DeepSeek 사내 에이전틱 코딩을 주도
- V4는 완전한 문서 생성 가능 (발표 시 샘플 PDF로 시연)
발표된 API 변경 사항
DeepSeek는 같은 날 API를 업데이트했습니다:
새로운 모델명:
deepseek-v4-pro(플래그십)deepseek-v4-flash(효율형)
변경 불필요 항목:
- API 베이스 URL (
https://api.deepseek.com/v1) - 인증
- SDK/클라이언트 라이브러리 (OpenAI 및 Anthropic API 완전 호환 유지)
레거시 모델 종료:
⚠️
deepseek-chat과deepseek-reasoner는 2026년 7월 24일 15:59 (UTC) 이후 완전히 종료되어 접근 불가가 됩니다. 현재는 각각 deepseek-v4-flash (비사고 및 사고 모드)로 라우팅되고 있습니다.
기술 보고서 공개
전체 기술 보고서 — "DeepSeek-V4: Towards Highly Efficient Million-Token Context Intelligence" — 가 모델 웨이트와 동시에 V4-Pro HuggingFace 레포지토리에서 공개되었습니다.
보고서에는 다음이 문서화되어 있습니다:
- 하이브리드 어텐션 아키텍처 (CSA + HCA)
- 다양체 제약 하이퍼 연결 (mHC)
- Muon 옵티마이저 도입
- 32T+ 토큰 사전 훈련 규모
- 2단계 사후 훈련 파이프라인 (전문가 특화 + 온폴리시 증류)
- 지식, 추론, 코딩, 긴 컨텍스트, 에이전틱 작업에 걸친 전체 벤치마크 평가
발표의 배경
4월 24일 릴리즈는 다음 발표들이 나온 지 몇 주 후에 이루어졌습니다:
- OpenAI의 GPT-5.5 — OpenAI의 새로운 프론티어 모델
- Anthropic의 Claude Opus 4.7 — Anthropic의 최신 플래그십
DeepSeek는 V4를 이 모델들과 직접 경쟁하면서도 훨씬 저렴한 가격으로 제공한다고 포지셔닝했습니다. DataCamp의 분석에 따르면: "DeepSeek는 최첨단 클로즈드 모델보다 단 3~6개월 뒤처져 있을 뿐이며, OpenAI나 Anthropic 같은 경쟁사 대비 훨씬 낮은 비용을 자랑한다고 주장한다."
AI 커뮤니티의 반응
Reddit(r/DeepSeek, r/singularity), HuggingFace, 개발자 소셜 채널에서의 커뮤니티 반응은 매우 긍정적이었으며, 반복적으로 언급된 주제들은 다음과 같습니다:
- Codeforces 3206: AI 역사상 가장 높은 Codeforces 평점으로 즉시 주목받으며 경쟁 프로그래밍의 역사적 이정표로 평가
- Flash 가격: 입력 $0.14/100만 토큰은 이용 가능한 프론티어급 API 토큰 중 가장 저렴한 수준으로 광범위하게 언급
- 100만 토큰 기본값: 주요 산업 이정표로 강조
- MIT 라이선스: Llama 3의 라이선스보다 더 개방적이어서 최대한의 상업적 활용이 가능하다고 환영받음
- HuggingFace 다운로드: V4-Pro는 출시 후 며칠 만에 12만 3천 건 이상의 다운로드 달성
신뢰와 장기주의에 관한 DeepSeek의 메시지
발표는 DeepSeek 특유의 메시지로 마무리되었습니다:
🔹 최근의 많은 관심 속에 한 가지 당부드립니다: DeepSeek 관련 소식은 공식 계정만을 통해 확인해 주세요. 다른 채널의 발언은 저희 견해를 반영하지 않습니다.
🔹 변함없는 신뢰에 감사드립니다. 저희는 장기주의를 고수하며 AGI라는 궁극적 목표를 향해 꾸준히 나아가겠습니다.
V4가 AI 생태계에 갖는 의미
4월 24일 발표는 AI 역사에서 중요한 전환점을 나타냅니다:
- 오픈소스 성능 격차: 이제 세대 단위가 아닌 개월 단위로 측정됨
- 가격: Flash 기준 GPT-5.5 대비 35배 저렴; Pro 기준 3배 저렴
- 컨텍스트 기준: 100만 토큰이 프리미엄 기능이 아닌 기본 기대치로 자리잡음
- 하드웨어 독립성: 화웨이 어센드 칩에서도 프론티어급 훈련 가능
글쓰기, 코딩, 디자인, 복잡한 창의적 워크플로우 등 크리에이터를 위해 세계 수준의 AI 역량을 통합한 Framia.pro 같은 플랫폼에게 있어, DeepSeek V4의 4월 24일 발표는 프론티어 AI를 모든 이에게 더 접근하기 쉽고 저렴하게 만드는 바로 그 종류의 발전을 의미합니다.
빠른 참조: 4월 24일 발표 요약
| 항목 | 세부 내용 |
|---|---|
| 릴리즈 유형 | 프리뷰 |
| 출시 모델 | V4-Pro (1.6T/49B) + V4-Flash (284B/13B) |
| 라이선스 | MIT |
| 컨텍스트 창 | 100만 토큰 (두 모델 모두) |
| Flash 가격 | $0.14/$0.28 (100만 토큰당) |
| Pro 가격 | $1.74/$3.48 (100만 토큰당) |
| 오픈 웨이트 | 예 (HuggingFace + ModelScope) |
| API 호환성 | OpenAI + Anthropic 형식 |
| 추론 모드 | Non-think / Think High / Think Max |
| 주요 벤치마크 | Codeforces 3206 (역대 최고) |
| 레거시 종료 | 2026년 7월 24일 |
| 기술 보고서 | HuggingFace 레포지토리에서 제공 |