DeepSeek V4 发布公告:2026年4月24日全面揭晓
2026年4月24日,DeepSeek 发布了今年最重要的开源 AI 公告之一:DeepSeek V4 预览版正式上线,包含两个模型——V4-Pro 和 V4-Flash——均提供开放权重、即时 API 访问及完整技术报告。以下是所有发布内容的全面总结。
发布公告
DeepSeek 的官方公告用简洁而有力的语言描述了此次发布:
🚀 DeepSeek-V4 预览版正式上线并开源!欢迎进入高性价比百万 Token 上下文的新时代。
公告于 2026 年 4 月 24 日通过 DeepSeek 官方 API 文档页面和社交媒体账号同步发布,并同时推出:
- HuggingFace 和 ModelScope 上的模型权重
- 更新后的 API(相同的基础 URL,全新的模型名称)
- HuggingFace 仓库中的技术报告 PDF(
DeepSeek_V4.pdf) - chat.deepseek.com 更新后的聊天界面
发布的两个模型
DeepSeek-V4-Pro
"性能媲美全球顶尖闭源模型。"
- 总参数量 1.6T / 活跃参数 49B(MoE 架构)
- MIT 许可证,开放权重
- 通过 API 以
deepseek-v4-pro调用 - 输入 $1.74 / 输出 $3.48(每百万 Token)
- 下载大小:约 865 GB
- chat.deepseek.com 的专家模式
DeepSeek-V4-Flash
"您的快速、高效、经济之选。"
- 总参数量 284B / 活跃参数 13B(MoE 架构)
- MIT 许可证,开放权重
- 通过 API 以
deepseek-v4-flash调用 - 输入 $0.14 / 输出 $0.28(每百万 Token)
- 下载大小:约 160 GB
- chat.deepseek.com 的极速模式
四大核心亮点
DeepSeek 围绕四大支柱展示了 V4 的核心特性:
1. DeepSeek-V4-Pro:前沿级性能
- 增强的智能体能力: 在智能体编程基准测试中达到开源 SOTA
- 丰富的世界知识: 领先所有现有开源模型,仅在世界知识方面略逊于 Gemini-3.1-Pro
- 世界级推理能力: 在数学/STEM/编程方面超越所有现有开源模型,可与顶尖闭源模型媲美
2. DeepSeek-V4-Flash:以极低成本接近 Pro 级体验
- 推理能力接近 V4-Pro
- 在简单智能体任务上与 V4-Pro 表现相当
- 更小的参数量 = 更快的响应速度 + 极具竞争力的 API 定价
3. 架构创新与超高上下文效率
- 全新注意力机制:逐 Token 压缩 + DSA(DeepSeek 稀疏注意力 / CSA+HCA 混合架构)
- 极致效率:大幅降低计算与内存成本,实现全球领先的长上下文处理能力
- 百万 Token 成为标配: 所有官方 DeepSeek 服务均以 100 万 Token 上下文为默认值
4. 专为智能体能力优化
- 与 Claude Code、OpenClaw、OpenCode 等主流 AI 智能体无缝集成
- 已驱动 DeepSeek 内部智能体编程实践
- V4 可生成完整文档(发布时附有示例 PDF 演示)
发布的 API 变更
DeepSeek 于同日更新了 API:
新模型名称:
deepseek-v4-pro(旗舰版)deepseek-v4-flash(高效版)
以下内容无需变更:
- API 基础 URL(
https://api.deepseek.com/v1) - 身份验证
- SDK/客户端库(完整保留 OpenAI 和 Anthropic API 兼容性)
旧版模型退役:
⚠️
deepseek-chat和deepseek-reasoner将于 2026 年 7 月 24 日 15:59(UTC) 后完全停用,届时将无法访问。目前它们分别路由至 deepseek-v4-flash 的非思考模式和思考模式。
技术报告同步发布
完整技术报告——《DeepSeek-V4:面向高效百万 Token 上下文智能》——与模型权重同步发布于 V4-Pro 的 HuggingFace 仓库。
报告涵盖:
- 混合注意力架构(CSA + HCA)
- 流形约束超连接(mHC)
- Muon 优化器的采用
- 超过 32T Token 的预训练规模
- 两阶段后训练流程(专家特化 + 在线蒸馏)
- 涵盖知识、推理、编程、长上下文及智能体任务的完整基准评测
发布背景
本次 4 月 24 日的发布,距以下重大发布仅数周:
- OpenAI 的 GPT-5.5 — OpenAI 的新前沿模型
- Anthropic 的 Claude Opus 4.7 — Anthropic 的最新旗舰产品
DeepSeek 将 V4 定位为与这些模型的直接竞争者,且价格仅为其极小一部分。DataCamp 的分析指出:"DeepSeek 声称其与最先进的闭源模型相差仅 3 到 6 个月,同时成本仅为 OpenAI 和 Anthropic 等竞争对手的极小部分。"
AI 社区的反应
Reddit(r/DeepSeek、r/singularity)、HuggingFace 及开发者社区的反应普遍积极,反复出现的话题包括:
- Codeforces 3206: 立即被认定为 AI 在 Codeforces 上有史以来的最高评分——竞争性编程领域的历史性里程碑
- Flash 定价: 输入 $0.14/百万 Token 被广泛认为是目前可用的前沿级 API Token 中最便宜的之一
- 百万 Token 作为默认值: 被视为行业重要里程碑
- MIT 许可证: 因比 Llama 3 的许可证更宽松、可实现最大化商业利用而受到热烈欢迎
- HuggingFace 下载量: V4-Pro 在发布后数天内即突破 12.3 万次下载
DeepSeek 关于信任与长期主义的寄语
公告以 DeepSeek 一贯的风格收尾:
🔹 近期受到广泛关注,在此温馨提示:DeepSeek 相关信息请以官方账号为准。其他渠道的言论不代表我们的立场。
🔹 感谢大家一直以来的信任。我们坚守长期主义,稳步朝着 AGI 这一终极目标不断迈进。
V4 对 AI 生态系统的意义
4 月 24 日的发布标志着 AI 历史上的重要时刻:
- 开源能力差距: 现在以月为单位衡量,而非以代际计算
- 定价: Flash 版本比 GPT-5.5 便宜 35 倍;Pro 版本便宜 3 倍
- 上下文标准: 100 万 Token 成为行业期待的基准,而非溢价功能
- 硬件独立性: 在华为昇腾芯片上即可实现前沿级训练
对于像 Framia.pro 这样为创作者集成世界级 AI 能力的平台——无论是写作、编程、设计还是复杂的创意工作流——DeepSeek V4 的 4 月 24 日发布,正是让前沿 AI 对所有人而言更加触手可及、更加经济实惠的那种进步。
快速参考:4 月 24 日发布公告摘要
| 项目 | 详情 |
|---|---|
| 发布类型 | 预览版 |
| 发布模型 | V4-Pro(1.6T/49B)+ V4-Flash(284B/13B) |
| 许可证 | MIT |
| 上下文窗口 | 100 万 Token(两个模型均适用) |
| Flash 定价 | $0.14/$0.28 每百万 Token |
| Pro 定价 | $1.74/$3.48 每百万 Token |
| 开放权重 | 是(HuggingFace + ModelScope) |
| API 兼容性 | OpenAI + Anthropic 格式 |
| 推理模式 | Non-think / Think High / Think Max |
| 关键基准 | Codeforces 3206(史上最高) |
| 旧版模型停用 | 2026 年 7 月 24 日 |
| 技术报告 | 可在 HuggingFace 仓库获取 |