DeepSeek V4 AIモデル詳細:完全スペック、機能、および性能ガイド

DeepSeek V4 AIモデルの完全ガイド。ProとFlashの仕様、アーキテクチャ解説、ベンチマーク比較、API料金、互換性、ユースケース別推奨設定を網羅した決定版リファレンス。

by Framia

DeepSeek V4 AIモデル詳細:完全スペック、機能、および性能ガイド

この記事では、DeepSeek V4シリーズの仕様・機能・性能に関するすべての重要情報を一つの包括的なリファレンスにまとめています。V4シリーズの評価・統合・研究を行うすべての方のための決定版ガイドです。


コア仕様

DeepSeek-V4-Pro

仕様 詳細
アーキテクチャ Mixture of Experts (MoE) + ハイブリッドアテンション (CSA + HCA) + mHC
総パラメータ数 1.6兆
アクティブパラメータ数(トークンあたり) 490億
コンテキスト長 1,000,000トークン(デフォルト)
事前学習データ 32T+多様なトークン
ライセンス MIT
リリース日 2026年4月24日(プレビュー)
精度 FP4(エキスパート)+ FP8(その他の重み)混合
ダウンロードサイズ 約865 GB
HuggingFace ID deepseek-ai/DeepSeek-V4-Pro
APIモデル名 deepseek-v4-pro
API入力価格 $1.74 / 100万トークン
API出力価格 $3.48 / 100万トークン

DeepSeek-V4-Flash

仕様 詳細
アーキテクチャ MoE + ハイブリッドアテンション (CSA + HCA) + mHC
総パラメータ数 2,840億
アクティブパラメータ数(トークンあたり) 130億
コンテキスト長 1,000,000トークン(デフォルト)
事前学習データ 32T+多様なトークン
ライセンス MIT
リリース日 2026年4月24日(プレビュー)
精度 FP4(エキスパート)+ FP8(その他の重み)混合
ダウンロードサイズ 約160 GB
HuggingFace ID deepseek-ai/DeepSeek-V4-Flash
APIモデル名 deepseek-v4-flash
API入力価格 $0.14 / 100万トークン
API出力価格 $0.28 / 100万トークン

アーキテクチャの詳細解説

ハイブリッドアテンション:CSA + HCA

V4アーキテクチャの根幹をなす革新は、2つの補完的なアテンションメカニズムの組み合わせです。

圧縮スパースアテンション(CSA): 中程度の距離のコンテキストに対して、キーバリューペアにトークン単位の圧縮を適用し、精度を維持しながらメモリと計算コストを削減します。

強圧縮アテンション(HCA): 非常に遠いトークンに対してアグレッシブな圧縮を適用し、コンパクトな要約表現を保存することで、フルアテンションのオーバーヘッドなしに100万トークンの全コンテキストにわたる情報を「記憶」できます。

1Mトークンコンテキストにおけるv3.2との比較効果:

  • 推論FLOP数:V3.2の**27%**に削減
  • KVキャッシュメモリ:V3.2の**10%**に削減

多様体制約ハイパーコネクション(mHC)

ネットワーク全体の標準的な残差接続を置き換えます。リーマン多様体上に重み更新を制約することで、mHCはV4-Proの数百のトランスフォーマー層を通じた信号伝播を強化し、1.6兆パラメータでの安定した学習を実現します。

Muonオプティマイザー

Muon(モメンタム+直交化)オプティマイザーがAdamWを置き換えます。勾配更新を直交化することで:

  • 連続した更新ステップ間の冗長性を除去
  • 収束を高速化(学習ステップあたりの学習量を増加)
  • 32T+トークンの事前学習スケールにおける高い安定性を提供

3つの推論モード

モード 説明 API設定 コンテキスト要件
Non-think 思考連鎖なしの直接応答 thinking: {type: "disabled"} 標準
Think High トークンバジェットによる構造化推論 thinking: {type: "enabled", budget_tokens: N} 標準
Think Max 拡張・徹底的推論 特殊システムプロンプト + thinking: {type: "max"} 384K+トークン

パフォーマンスへの影響(V4-Pro):

ベンチマーク Non-Think Think Max
LiveCodeBench 56.8% 93.5%
GPQA Diamond 72.9% 90.1%
Codeforces Rating N/A 3206
HMMT 2026 Feb 31.7% 95.2%

主要機能

コーディング

  • オープンモデル最高のCodeforces評価:3206
  • LiveCodeBench:93.5%(Pass@1)
  • SWE-bench Verified:80.6%(解決)
  • SWE-bench Pro:55.4%(解決)
  • SWE-bench Multilingual:76.2%(解決)
  • Claude Code、OpenClaw、OpenCodeとのネイティブ統合

推論と知識

  • MMLU-Pro:87.5%(Think Max)
  • GPQA Diamond:90.1%(Think Max)
  • HLE:37.7%(Think Max)
  • SimpleQA-Verified:57.9%(Think Max)
  • MMMLU(多言語):90.3%(ベース)

長文コンテキスト

  • MRCR 1M(ニードルインヘイスタック):83.5%(Think Max)— Gemini-3.1-Proを上回る
  • CorpusQA 1M:62.0%(Think Max)— Claude以外で最高スコア
  • LongBench-V2(ベース):51.5%

エージェントタスク

  • Terminal Bench 2.0:67.9%(Think Max)
  • SWE-bench Verified:80.6%
  • MCPAtlas Public:73.6%(Think Max)— オープン最高スコア
  • BrowseComp:83.4%(Think Max)
  • Toolathlon:51.8%(Think Max)

API互換性

APIフォーマット サポート
OpenAI ChatCompletions ✅ 完全互換
Anthropic Messages API ✅ 完全互換
ツール/ファンクション呼び出し ✅ サポート
ストリーミング ✅ サポート
思考コンテンツ(reasoning_content ✅ Think High/Maxモードで利用可能

利用可能なモデルバリアント

モデル タイプ 利用可能な場所
DeepSeek-V4-Pro インストラクト(チャット最適化済み) HuggingFace、ModelScope、API
DeepSeek-V4-Pro-Base 事前学習ベース HuggingFace、ModelScope
DeepSeek-V4-Flash インストラクト(チャット最適化済み) HuggingFace、ModelScope、API
DeepSeek-V4-Flash-Base 事前学習ベース HuggingFace、ModelScope

エージェント統合

DeepSeek V4は以下とネイティブ統合されています:

  • Claude Code — 主要AIコーディングアシスタント
  • OpenClaw — オープンソースマルチエージェントフレームワーク
  • OpenCode — オープンソース自律コーディングシステム

DeepSeek自身の内部エージェントコーディングインフラストラクチャをすでに支えています。


アクセス方法

  1. Web: chat.deepseek.com(インスタントモード = Flash;エキスパートモード = Pro)
  2. API: api.deepseek.com/v1 — モデルを deepseek-v4-pro または deepseek-v4-flash に更新
  3. HuggingFace: ローカルデプロイ用の重みをダウンロード
  4. ModelScope: 中国国内での高速アクセス向け代替ダウンロード
  5. サードパーティ推論プロバイダー: Novitaを含む複数のプロバイダーがV4 APIアクセスを提供

旧モデルの移行

旧モデル名 移行先 廃止日
deepseek-chat deepseek-v4-flash(非思考) 2026年7月24日
deepseek-reasoner deepseek-v4-flash(思考) 2026年7月24日

タスク別推奨構成

タスク 推奨構成 理由
チャット・Q&A V4-Flash Non-think 高速でコスト効率が良い
コード補完 V4-Flash Non-think 速度が重要
複雑なアルゴリズム設計 V4-Pro Think High 精度とスピードのバランス
競技プログラミング V4-Pro Think Max 最高性能
文書要約 V4-Flash Non-think 大量処理に最適
詳細な文書分析 V4-Pro Think High 大規模コンテキストでの精度重視
自律エージェント V4-Pro Think Max 複雑なマルチステップタスク

Framia.pro のようなAIネイティブプラットフォームは、これらの構成にわたってインテリジェントルーティングを実装し、タスクの複雑さを最適なV4バリアントとモードにマッチングさせることで、クリエイティブワークフローの品質とコストの両方を最適化します。


まとめ

DeepSeek V4は、2026年4月現在で利用可能な最も高性能なオープンウェイトモデルシリーズです。1.6兆パラメータ(V4-Pro)、MITライセンス、標準100万トークンコンテキストウィンドウ、3つの推論モード、フロンティアクラスのコーディング能力、そしてクローズドソース代替品と比較して10〜35倍低い価格設定により、アクセシブルなAI能力における真の転換点を表しています。