DeepSeek V4 AIモデル詳細:完全スペック、機能、および性能ガイド
この記事では、DeepSeek V4シリーズの仕様・機能・性能に関するすべての重要情報を一つの包括的なリファレンスにまとめています。V4シリーズの評価・統合・研究を行うすべての方のための決定版ガイドです。
コア仕様
DeepSeek-V4-Pro
| 仕様 | 詳細 |
|---|---|
| アーキテクチャ | Mixture of Experts (MoE) + ハイブリッドアテンション (CSA + HCA) + mHC |
| 総パラメータ数 | 1.6兆 |
| アクティブパラメータ数(トークンあたり) | 490億 |
| コンテキスト長 | 1,000,000トークン(デフォルト) |
| 事前学習データ | 32T+多様なトークン |
| ライセンス | MIT |
| リリース日 | 2026年4月24日(プレビュー) |
| 精度 | FP4(エキスパート)+ FP8(その他の重み)混合 |
| ダウンロードサイズ | 約865 GB |
| HuggingFace ID | deepseek-ai/DeepSeek-V4-Pro |
| APIモデル名 | deepseek-v4-pro |
| API入力価格 | $1.74 / 100万トークン |
| API出力価格 | $3.48 / 100万トークン |
DeepSeek-V4-Flash
| 仕様 | 詳細 |
|---|---|
| アーキテクチャ | MoE + ハイブリッドアテンション (CSA + HCA) + mHC |
| 総パラメータ数 | 2,840億 |
| アクティブパラメータ数(トークンあたり) | 130億 |
| コンテキスト長 | 1,000,000トークン(デフォルト) |
| 事前学習データ | 32T+多様なトークン |
| ライセンス | MIT |
| リリース日 | 2026年4月24日(プレビュー) |
| 精度 | FP4(エキスパート)+ FP8(その他の重み)混合 |
| ダウンロードサイズ | 約160 GB |
| HuggingFace ID | deepseek-ai/DeepSeek-V4-Flash |
| APIモデル名 | deepseek-v4-flash |
| API入力価格 | $0.14 / 100万トークン |
| API出力価格 | $0.28 / 100万トークン |
アーキテクチャの詳細解説
ハイブリッドアテンション:CSA + HCA
V4アーキテクチャの根幹をなす革新は、2つの補完的なアテンションメカニズムの組み合わせです。
圧縮スパースアテンション(CSA): 中程度の距離のコンテキストに対して、キーバリューペアにトークン単位の圧縮を適用し、精度を維持しながらメモリと計算コストを削減します。
強圧縮アテンション(HCA): 非常に遠いトークンに対してアグレッシブな圧縮を適用し、コンパクトな要約表現を保存することで、フルアテンションのオーバーヘッドなしに100万トークンの全コンテキストにわたる情報を「記憶」できます。
1Mトークンコンテキストにおけるv3.2との比較効果:
- 推論FLOP数:V3.2の**27%**に削減
- KVキャッシュメモリ:V3.2の**10%**に削減
多様体制約ハイパーコネクション(mHC)
ネットワーク全体の標準的な残差接続を置き換えます。リーマン多様体上に重み更新を制約することで、mHCはV4-Proの数百のトランスフォーマー層を通じた信号伝播を強化し、1.6兆パラメータでの安定した学習を実現します。
Muonオプティマイザー
Muon(モメンタム+直交化)オプティマイザーがAdamWを置き換えます。勾配更新を直交化することで:
- 連続した更新ステップ間の冗長性を除去
- 収束を高速化(学習ステップあたりの学習量を増加)
- 32T+トークンの事前学習スケールにおける高い安定性を提供
3つの推論モード
| モード | 説明 | API設定 | コンテキスト要件 |
|---|---|---|---|
| Non-think | 思考連鎖なしの直接応答 | thinking: {type: "disabled"} |
標準 |
| Think High | トークンバジェットによる構造化推論 | thinking: {type: "enabled", budget_tokens: N} |
標準 |
| Think Max | 拡張・徹底的推論 | 特殊システムプロンプト + thinking: {type: "max"} |
384K+トークン |
パフォーマンスへの影響(V4-Pro):
| ベンチマーク | Non-Think | Think Max |
|---|---|---|
| LiveCodeBench | 56.8% | 93.5% |
| GPQA Diamond | 72.9% | 90.1% |
| Codeforces Rating | N/A | 3206 |
| HMMT 2026 Feb | 31.7% | 95.2% |
主要機能
コーディング
- オープンモデル最高のCodeforces評価:3206
- LiveCodeBench:93.5%(Pass@1)
- SWE-bench Verified:80.6%(解決)
- SWE-bench Pro:55.4%(解決)
- SWE-bench Multilingual:76.2%(解決)
- Claude Code、OpenClaw、OpenCodeとのネイティブ統合
推論と知識
- MMLU-Pro:87.5%(Think Max)
- GPQA Diamond:90.1%(Think Max)
- HLE:37.7%(Think Max)
- SimpleQA-Verified:57.9%(Think Max)
- MMMLU(多言語):90.3%(ベース)
長文コンテキスト
- MRCR 1M(ニードルインヘイスタック):83.5%(Think Max)— Gemini-3.1-Proを上回る
- CorpusQA 1M:62.0%(Think Max)— Claude以外で最高スコア
- LongBench-V2(ベース):51.5%
エージェントタスク
- Terminal Bench 2.0:67.9%(Think Max)
- SWE-bench Verified:80.6%
- MCPAtlas Public:73.6%(Think Max)— オープン最高スコア
- BrowseComp:83.4%(Think Max)
- Toolathlon:51.8%(Think Max)
API互換性
| APIフォーマット | サポート |
|---|---|
| OpenAI ChatCompletions | ✅ 完全互換 |
| Anthropic Messages API | ✅ 完全互換 |
| ツール/ファンクション呼び出し | ✅ サポート |
| ストリーミング | ✅ サポート |
思考コンテンツ(reasoning_content) |
✅ Think High/Maxモードで利用可能 |
利用可能なモデルバリアント
| モデル | タイプ | 利用可能な場所 |
|---|---|---|
| DeepSeek-V4-Pro | インストラクト(チャット最適化済み) | HuggingFace、ModelScope、API |
| DeepSeek-V4-Pro-Base | 事前学習ベース | HuggingFace、ModelScope |
| DeepSeek-V4-Flash | インストラクト(チャット最適化済み) | HuggingFace、ModelScope、API |
| DeepSeek-V4-Flash-Base | 事前学習ベース | HuggingFace、ModelScope |
エージェント統合
DeepSeek V4は以下とネイティブ統合されています:
- Claude Code — 主要AIコーディングアシスタント
- OpenClaw — オープンソースマルチエージェントフレームワーク
- OpenCode — オープンソース自律コーディングシステム
DeepSeek自身の内部エージェントコーディングインフラストラクチャをすでに支えています。
アクセス方法
- Web: chat.deepseek.com(インスタントモード = Flash;エキスパートモード = Pro)
- API: api.deepseek.com/v1 — モデルを
deepseek-v4-proまたはdeepseek-v4-flashに更新 - HuggingFace: ローカルデプロイ用の重みをダウンロード
- ModelScope: 中国国内での高速アクセス向け代替ダウンロード
- サードパーティ推論プロバイダー: Novitaを含む複数のプロバイダーがV4 APIアクセスを提供
旧モデルの移行
| 旧モデル名 | 移行先 | 廃止日 |
|---|---|---|
| deepseek-chat | deepseek-v4-flash(非思考) | 2026年7月24日 |
| deepseek-reasoner | deepseek-v4-flash(思考) | 2026年7月24日 |
タスク別推奨構成
| タスク | 推奨構成 | 理由 |
|---|---|---|
| チャット・Q&A | V4-Flash Non-think | 高速でコスト効率が良い |
| コード補完 | V4-Flash Non-think | 速度が重要 |
| 複雑なアルゴリズム設計 | V4-Pro Think High | 精度とスピードのバランス |
| 競技プログラミング | V4-Pro Think Max | 最高性能 |
| 文書要約 | V4-Flash Non-think | 大量処理に最適 |
| 詳細な文書分析 | V4-Pro Think High | 大規模コンテキストでの精度重視 |
| 自律エージェント | V4-Pro Think Max | 複雑なマルチステップタスク |
Framia.pro のようなAIネイティブプラットフォームは、これらの構成にわたってインテリジェントルーティングを実装し、タスクの複雑さを最適なV4バリアントとモードにマッチングさせることで、クリエイティブワークフローの品質とコストの両方を最適化します。
まとめ
DeepSeek V4は、2026年4月現在で利用可能な最も高性能なオープンウェイトモデルシリーズです。1.6兆パラメータ(V4-Pro)、MITライセンス、標準100万トークンコンテキストウィンドウ、3つの推論モード、フロンティアクラスのコーディング能力、そしてクローズドソース代替品と比較して10〜35倍低い価格設定により、アクセシブルなAI能力における真の転換点を表しています。