DeepSeek V4 发布公告:2026年4月24日全面揭晓

2026年4月24日 DeepSeek V4 发布公告完整解读:V4-Pro 与 V4-Flash 规格、定价、API 变更、技术报告要点及社区反应一文全览。

by Framia

DeepSeek V4 发布公告:2026年4月24日全面揭晓

2026年4月24日,DeepSeek 发布了今年最重要的开源 AI 公告之一:DeepSeek V4 预览版正式上线,包含两个模型——V4-Pro 和 V4-Flash——均提供开放权重、即时 API 访问及完整技术报告。以下是所有发布内容的全面总结。


发布公告

DeepSeek 的官方公告用简洁而有力的语言描述了此次发布:

🚀 DeepSeek-V4 预览版正式上线并开源!欢迎进入高性价比百万 Token 上下文的新时代。

公告于 2026 年 4 月 24 日通过 DeepSeek 官方 API 文档页面和社交媒体账号同步发布,并同时推出:

  • HuggingFace 和 ModelScope 上的模型权重
  • 更新后的 API(相同的基础 URL,全新的模型名称)
  • HuggingFace 仓库中的技术报告 PDF(DeepSeek_V4.pdf
  • chat.deepseek.com 更新后的聊天界面

发布的两个模型

DeepSeek-V4-Pro

"性能媲美全球顶尖闭源模型。"

  • 总参数量 1.6T / 活跃参数 49B(MoE 架构)
  • MIT 许可证,开放权重
  • 通过 API 以 deepseek-v4-pro 调用
  • 输入 $1.74 / 输出 $3.48(每百万 Token)
  • 下载大小:约 865 GB
  • chat.deepseek.com 的专家模式

DeepSeek-V4-Flash

"您的快速、高效、经济之选。"

  • 总参数量 284B / 活跃参数 13B(MoE 架构)
  • MIT 许可证,开放权重
  • 通过 API 以 deepseek-v4-flash 调用
  • 输入 $0.14 / 输出 $0.28(每百万 Token)
  • 下载大小:约 160 GB
  • chat.deepseek.com 的极速模式

四大核心亮点

DeepSeek 围绕四大支柱展示了 V4 的核心特性:

1. DeepSeek-V4-Pro:前沿级性能

  • 增强的智能体能力: 在智能体编程基准测试中达到开源 SOTA
  • 丰富的世界知识: 领先所有现有开源模型,仅在世界知识方面略逊于 Gemini-3.1-Pro
  • 世界级推理能力: 在数学/STEM/编程方面超越所有现有开源模型,可与顶尖闭源模型媲美

2. DeepSeek-V4-Flash:以极低成本接近 Pro 级体验

  • 推理能力接近 V4-Pro
  • 在简单智能体任务上与 V4-Pro 表现相当
  • 更小的参数量 = 更快的响应速度 + 极具竞争力的 API 定价

3. 架构创新与超高上下文效率

  • 全新注意力机制:逐 Token 压缩 + DSA(DeepSeek 稀疏注意力 / CSA+HCA 混合架构)
  • 极致效率:大幅降低计算与内存成本,实现全球领先的长上下文处理能力
  • 百万 Token 成为标配: 所有官方 DeepSeek 服务均以 100 万 Token 上下文为默认值

4. 专为智能体能力优化

  • 与 Claude Code、OpenClaw、OpenCode 等主流 AI 智能体无缝集成
  • 已驱动 DeepSeek 内部智能体编程实践
  • V4 可生成完整文档(发布时附有示例 PDF 演示)

发布的 API 变更

DeepSeek 于同日更新了 API:

新模型名称:

  • deepseek-v4-pro(旗舰版)
  • deepseek-v4-flash(高效版)

以下内容无需变更:

  • API 基础 URL(https://api.deepseek.com/v1
  • 身份验证
  • SDK/客户端库(完整保留 OpenAI 和 Anthropic API 兼容性)

旧版模型退役:

⚠️ deepseek-chatdeepseek-reasoner 将于 2026 年 7 月 24 日 15:59(UTC) 后完全停用,届时将无法访问。目前它们分别路由至 deepseek-v4-flash 的非思考模式和思考模式。


技术报告同步发布

完整技术报告——《DeepSeek-V4:面向高效百万 Token 上下文智能》——与模型权重同步发布于 V4-Pro 的 HuggingFace 仓库。

报告涵盖:

  • 混合注意力架构(CSA + HCA)
  • 流形约束超连接(mHC)
  • Muon 优化器的采用
  • 超过 32T Token 的预训练规模
  • 两阶段后训练流程(专家特化 + 在线蒸馏)
  • 涵盖知识、推理、编程、长上下文及智能体任务的完整基准评测

发布背景

本次 4 月 24 日的发布,距以下重大发布仅数周:

  • OpenAI 的 GPT-5.5 — OpenAI 的新前沿模型
  • Anthropic 的 Claude Opus 4.7 — Anthropic 的最新旗舰产品

DeepSeek 将 V4 定位为与这些模型的直接竞争者,且价格仅为其极小一部分。DataCamp 的分析指出:"DeepSeek 声称其与最先进的闭源模型相差仅 3 到 6 个月,同时成本仅为 OpenAI 和 Anthropic 等竞争对手的极小部分。"


AI 社区的反应

Reddit(r/DeepSeek、r/singularity)、HuggingFace 及开发者社区的反应普遍积极,反复出现的话题包括:

  • Codeforces 3206: 立即被认定为 AI 在 Codeforces 上有史以来的最高评分——竞争性编程领域的历史性里程碑
  • Flash 定价: 输入 $0.14/百万 Token 被广泛认为是目前可用的前沿级 API Token 中最便宜的之一
  • 百万 Token 作为默认值: 被视为行业重要里程碑
  • MIT 许可证: 因比 Llama 3 的许可证更宽松、可实现最大化商业利用而受到热烈欢迎
  • HuggingFace 下载量: V4-Pro 在发布后数天内即突破 12.3 万次下载

DeepSeek 关于信任与长期主义的寄语

公告以 DeepSeek 一贯的风格收尾:

🔹 近期受到广泛关注,在此温馨提示:DeepSeek 相关信息请以官方账号为准。其他渠道的言论不代表我们的立场。

🔹 感谢大家一直以来的信任。我们坚守长期主义,稳步朝着 AGI 这一终极目标不断迈进。


V4 对 AI 生态系统的意义

4 月 24 日的发布标志着 AI 历史上的重要时刻:

  • 开源能力差距: 现在以月为单位衡量,而非以代际计算
  • 定价: Flash 版本比 GPT-5.5 便宜 35 倍;Pro 版本便宜 3 倍
  • 上下文标准: 100 万 Token 成为行业期待的基准,而非溢价功能
  • 硬件独立性: 在华为昇腾芯片上即可实现前沿级训练

对于像 Framia.pro 这样为创作者集成世界级 AI 能力的平台——无论是写作、编程、设计还是复杂的创意工作流——DeepSeek V4 的 4 月 24 日发布,正是让前沿 AI 对所有人而言更加触手可及、更加经济实惠的那种进步。


快速参考:4 月 24 日发布公告摘要

项目 详情
发布类型 预览版
发布模型 V4-Pro(1.6T/49B)+ V4-Flash(284B/13B)
许可证 MIT
上下文窗口 100 万 Token(两个模型均适用)
Flash 定价 $0.14/$0.28 每百万 Token
Pro 定价 $1.74/$3.48 每百万 Token
开放权重 是(HuggingFace + ModelScope)
API 兼容性 OpenAI + Anthropic 格式
推理模式 Non-think / Think High / Think Max
关键基准 Codeforces 3206(史上最高)
旧版模型停用 2026 年 7 月 24 日
技术报告 可在 HuggingFace 仓库获取