DeepSeek V4発表:2026年4月24日に明かされたすべて
2026年4月24日、DeepSeekは今年最も重要なオープンソースAI発表の一つを行いました:DeepSeek V4のプレビューリリースです。V4-ProとV4-Flashの2モデルで構成され、オープンウェイト、即時APIアクセス、完全な技術レポートが公開されました。発表されたすべての内容を詳しくまとめます。
発表の概要
DeepSeekの公式アナウンスはシンプルながらも印象的な言葉で幕を開けました:
🚀 DeepSeek-V4 Previewが正式にリリース&オープンソース化!コスト効率に優れた100万トークンコンテキストの時代へようこそ。
発表は2026年4月24日にDeepSeekの公式APIドキュメントページおよびSNSアカウントを通じて行われ、以下が同時リリースされました:
- HuggingFaceおよびModelScopeでのモデルウェイト
- 更新されたAPI(ベースURLは同じ、モデル名が新しくなった)
- HuggingFaceリポジトリに技術レポートPDF(
DeepSeek_V4.pdf) - chat.deepseek.comのチャットインターフェース更新
発表された2つのモデル
DeepSeek-V4-Pro
「世界トップクラスのクローズドソースモデルに匹敵するパフォーマンス」
- 総パラメータ数1.6T / アクティブ49B(MoE)
- MITライセンス、オープンウェイト
- APIから
deepseek-v4-proとして利用可能 - 入力$1.74 / 出力$3.48(100万トークンあたり)
- ダウンロードサイズ:約865 GB
- chat.deepseek.comにてExpertモード提供
DeepSeek-V4-Flash
「速く、効率的で、経済的な選択肢」
- 総パラメータ数284B / アクティブ13B(MoE)
- MITライセンス、オープンウェイト
- APIから
deepseek-v4-flashとして利用可能 - 入力$0.14 / 出力$0.28(100万トークンあたり)
- ダウンロードサイズ:約160 GB
- chat.deepseek.comにてInstantモード提供
4つの主要な訴求点
DeepSeekはV4の特長を4つの柱に整理して発表しました:
1. DeepSeek-V4-Pro:フロンティアクラスのパフォーマンス
- 強化されたエージェント機能: エージェンティックコーディングベンチマークでオープンソースSOTA達成
- 豊富な世界知識: 現行オープンモデルの中でトップ。世界知識においてGemini-3.1-Proのみに次ぐ
- 世界レベルの推論能力: 数学・STEM・コーディングで全オープンモデルを凌駕し、トップのクローズドソースモデルに匹敵
2. DeepSeek-V4-Flash:Proに迫る性能をわずかなコストで
- 推論能力はV4-Proに肉薄
- シンプルなエージェントタスクではV4-Proと同等の性能
- 小さなパラメータサイズにより高速なレスポンスと高コスパなAPI価格を実現
3. 構造的イノベーションと超高コンテキスト効率
- 革新的なアテンション機構:トークン単位の圧縮 + DSA(DeepSeek Sparse Attention / CSA+HCAハイブリッド)
- ピーク効率:大幅に削減された計算・メモリコストによる世界最高水準のロングコンテキスト処理
- 100万トークンが標準: 全DeepSeek公式サービスでデフォルトに
4. エージェント機能に特化した最適化
- Claude Code、OpenClaw、OpenCodeなどの主要AIエージェントとシームレスに統合
- すでにDeepSeek自社のエージェンティックコーディングを牽引
- V4は完全なドキュメント生成が可能(発表時にサンプルPDFを実演)
発表されたAPI変更内容
DeepSeekは同日中にAPIを更新しました:
新しいモデル名:
deepseek-v4-pro(フラッグシップ)deepseek-v4-flash(効率重視)
変更不要な項目:
- APIベースURL(
https://api.deepseek.com/v1) - 認証
- SDK/クライアントライブラリ(OpenAIおよびAnthropicとの完全なAPI互換性を維持)
レガシーモデルの廃止:
⚠️
deepseek-chatとdeepseek-reasonerは**2026年7月24日 15:59(UTC)**以降、完全に廃止されアクセス不能になります。現在はdeepseek-v4-flash(それぞれ通常モードとシンキングモード)にルーティングされています。
技術レポートの公開
完全な技術レポート — 「DeepSeek-V4: Towards Highly Efficient Million-Token Context Intelligence」 — がモデルウェイトと同時にV4-ProのHuggingFaceリポジトリで公開されました。
レポートに記載されている内容:
- ハイブリッドアテンションアーキテクチャ(CSA + HCA)
- 多様体制約付きハイパー接続(mHC)
- Muonオプティマイザの採用
- 32T以上のトークンによる事前学習スケール
- 2段階のポストトレーニングパイプライン(エキスパート特化+オンポリシー蒸留)
- 知識・推論・コーディング・長文コンテキスト・エージェントタスクにわたる完全なベンチマーク評価
発表の背景
4月24日のリリースは、以下の発表から数週間後に行われました:
- OpenAIのGPT-5.5 — OpenAIの新フロンティアモデル
- AnthropicのClaude Opus 4.7 — Anthropicの最新フラッグシップ
DeepSeekはV4をこれらのモデルに直接対抗するポジションで、はるかに低い価格で提供すると主張しました。DataCampの分析によれば:「DeepSeekは最先端のクローズドモデルに対してわずか3〜6ヶ月の差であり、OpenAIやAnthropicなどの競合に比べてコストは僅少だと主張している。」
AIコミュニティの反応
Reddit(r/DeepSeek、r/singularity)、HuggingFace、開発者向けSNSでのコミュニティの反応は非常に好意的で、以下のテーマが繰り返し取り上げられました:
- Codeforces 3206: 即座にAI史上最高のCodeforces評価として注目され、競技プログラミングの歴史的な節目として語られた
- Flashの価格: 入力$0.14/100万トークンは、入手可能なフロンティアクラスのAPIトークンの中でも最安値レベルとして広く話題に
- 100万トークンがデフォルト: 業界の重大なマイルストーンとして注目
- MITライセンス: Llama 3のライセンスより寛容であり、最大限の商業利用を可能にすると歓迎
- HuggingFaceダウンロード数: V4-Proはリリースから数日以内に12万3千件以上のダウンロードを達成
信頼性と長期主義に関するDeepSeekのメッセージ
発表の最後は、DeepSeekらしいメッセージで締めくくられました:
🔹 最近の注目を受け、改めてお伝えします:DeepSeekに関するニュースは公式アカウントのみを参照してください。他のチャンネルからの発言は私たちの見解を反映するものではありません。
🔹 変わらぬご信頼に感謝します。私たちは長期主義を貫き、AGIという最終目標に向けて着実に前進し続けます。
AIエコシステムへのV4の意義
4月24日の発表はAI史における重要な転換点を示しています:
- オープンソースとの性能差: 世代単位ではなく、月単位で測られるようになった
- 価格: FlashはGPT-5.5の35倍安く、Proは3倍安い
- コンテキスト標準: 100万トークンがプレミアム機能ではなく、期待される最低基準に
- ハードウェア独立性: Huawei Ascendチップでフロンティアレベルのトレーニングが実現可能に
ライティング、コーディング、デザイン、複雑なクリエイティブワークフローなど、クリエイター向けに世界クラスのAI機能を統合したFramia.proのようなプラットフォームにとって、DeepSeek V4の4月24日の発表は、フロンティアAIをより多くの人にとってよりアクセシブルで手頃なものにするまさにその種の進歩を意味します。
クイックリファレンス:4月24日発表まとめ
| 項目 | 詳細 |
|---|---|
| リリース種別 | プレビュー |
| リリースモデル | V4-Pro(1.6T/49B)+ V4-Flash(284B/13B) |
| ライセンス | MIT |
| コンテキストウィンドウ | 100万トークン(両モデル) |
| Flash価格 | $0.14/$0.28(100万トークンあたり) |
| Pro価格 | $1.74/$3.48(100万トークンあたり) |
| オープンウェイト | あり(HuggingFace + ModelScope) |
| API互換性 | OpenAI + Anthropic形式 |
| 推論モード | Non-think / Think High / Think Max |
| 主要ベンチマーク | Codeforces 3206(史上最高) |
| レガシー廃止 | 2026年7月24日 |
| 技術レポート | HuggingFaceリポジトリで公開 |