DeepSeek V4をHuggingFaceで使う:オープンウェイトのアクセス・ダウンロード方法

DeepSeek V4-ProとV4-FlashのウェイトはMITライセンスでHuggingFaceに公開中。ローカル実行からダウンロード手順まで徹底解説。Framia.proでのAPI利用も紹介。

by Framia

DeepSeek V4をHuggingFaceで使う:オープンウェイトのアクセス・ダウンロード方法

DeepSeek V4は完全オープンソースのモデルであり、すべてのモデルウェイトがHuggingFace上で寛容なMITライセンスのもと公開されています。ローカルでモデルを動かしたい方、特定のユースケース向けにファインチューニングしたい方、あるいはアーキテクチャを確認したい方、どのような目的にもHuggingFaceがDeepSeek V4の主要な配布チャネルです。

このガイドでは、モデルの場所、各リポジトリの内容、ダウンロードサイズ、そして使い始め方まで詳しく解説します。


DeepSeek V4 HuggingFaceリポジトリリンク

DeepSeekは公式のdeepseek-ai HuggingFaceコレクションに4つのモデルリポジトリを公開しています:

リポジトリ タイプ パラメータ数(合計/アクティブ) 精度 サイズ
deepseek-ai/DeepSeek-V4-Flash-Base ベース(事前学習済み) 284B / 13B FP8 Mixed ~160 GB
deepseek-ai/DeepSeek-V4-Flash インストラクト(RLHF調整済み) 284B / 13B FP4 + FP8 Mixed ~160 GB
deepseek-ai/DeepSeek-V4-Pro-Base ベース(事前学習済み) 1.6T / 49B FP8 Mixed ~865 GB
deepseek-ai/DeepSeek-V4-Pro インストラクト(RLHF調整済み) 1.6T / 49B FP4 + FP8 Mixed ~865 GB

4つのリポジトリはすべてdeepseek-ai/deepseek-v4コレクションの一部です。


各リポジトリの内容

各V4モデルリポジトリには以下が含まれています:

  • モデルウェイト — SafeTensors形式(複数のシャードに分割)
  • DeepSeek_V4.pdf — 完全な技術レポート
  • encoding/ フォルダ — OpenAI互換プロンプトの構築とモデル出力のパースを行うPythonスクリプト
  • inference/ フォルダ — ローカルでモデルを実行するための詳細な手順
  • LICENSE — MITライセンスファイル
  • README — モデルカード、ベンチマーク表、引用情報

技術レポート(DeepSeek_V4.pdf)はProリポジトリに収録されており、ハイブリッドアテンション機構、mHC、トレーニング手法などの詳細なアーキテクチャ情報が含まれています。


ライセンス:MIT(Apache 2.0ではありません)

DeepSeekがApache 2.0ライセンスを使用していると誤解されることがありますが(一部の以前のモデルではそうでした)、DeepSeek V4はMITライセンスのもとでリリースされており、さらに寛容な条件となっています:

  • ✅ 商用利用可
  • ✅ 改変可
  • ✅ 再配布可
  • ✅ 個人利用可
  • ✅ 特許条項や追加制限なし

つまり、V4をベースにした独自製品の開発、派生物のファインチューニングと再配布、あらゆる商用コンテキストでの利用が、MITの著作権表示を保持するだけで制限なく可能です。


DeepSeek V4ウェイトのダウンロード方法

方法1:HuggingFace CLI(推奨)

pip install huggingface_hub

# V4-Flashをダウンロード(インストラクト、約160 GB)
huggingface-cli download deepseek-ai/DeepSeek-V4-Flash --local-dir ./DeepSeek-V4-Flash

# V4-Proをダウンロード(インストラクト、約865 GB)
huggingface-cli download deepseek-ai/DeepSeek-V4-Pro --local-dir ./DeepSeek-V4-Pro

方法2:Pythonとhuggingface_hubを使用

from huggingface_hub import snapshot_download

snapshot_download(
    repo_id="deepseek-ai/DeepSeek-V4-Flash",
    local_dir="./DeepSeek-V4-Flash"
)

方法3:ModelScope(中国本土のユーザーに推奨)

DeepSeek V4はModelScopeでも同じリポジトリパス(deepseek-ai/DeepSeek-V4-Flashなど)で利用可能であり、中国本土からは高速でダウンロードできる場合があります。


ストレージと帯域幅の要件

モデル ディスク容量 必要VRAM 推奨GPU構成
V4-Flash ~160 GB ~160 GB VRAM 2× H100 80GB または 8× A100 40GB
V4-Pro ~865 GB ~865 GB VRAM 16× H100 80GB(または同等品)
V4-Flash(量子化済み) ~80 GB ~80 GB VRAM 2× RTX 4090 / 1× RTX 5090
V4-Pro(量子化済み) ~200 GB ~200 GB VRAM 4〜8× H100

注意:DeepSeekはFP4+FP8混合精度を使用しているため、生ウェイトはすでに大幅に圧縮されています。コミュニティが提供する量子化バージョン(GGUF/GPTQ)がHuggingFaceに登場しており、必要リソースをさらに削減できます。


モデルの実行:セットアップ時の注意点

DeepSeek V4は標準のHuggingFace Jinja chatテンプレートを使用していません。代わりに、リポジトリのencoding/フォルダに収録されているカスタムエンコーディングスクリプトを使用する必要があります。

最小限の実行例:

from encoding_dsv4 import encode_messages, parse_message_from_completion_text

messages = [
    {"role": "user", "content": "DeepSeek V4のハイブリッドアテンションアーキテクチャを説明してください"}
]

prompt = encode_messages(messages, thinking_mode="thinking")

import transformers
tokenizer = transformers.AutoTokenizer.from_pretrained("deepseek-ai/DeepSeek-V4-Flash")
tokens = tokenizer.encode(prompt)

完全な推論セットアップについては、各リポジトリ内のinference/README.mdを参照してください。


HuggingFaceでのコミュニティ活動

2026年4月24日のリリースから数日以内に、DeepSeek V4-Proリポジトリは123,000回以上のダウンロードと22のコミュニティSpaceを記録しました。コミュニティはすばやく以下を提供しました:

  • llama.cpp向けGGUF量子化(CPU+GPUハイブリッド推論を可能に)
  • LM Studio互換バージョン
  • Ollamaビルド
  • Jan互換パッケージ

これらのコミュニティ管理の量子化により、V4-Flashが単一のRTX 4090で動作するようになっています — 2840億パラメータモデルとしては驚くべき成果です。


DeepSeek V4とAIプラットフォーム

ローカルウェイトの管理ではなくAPI経由でのアクセスを好む方には、V4モデルは複数の推論プロバイダーを通じても利用可能です。Framia.proのようなプラットフォームは、DeepSeekの最新リリースを含む最先端AIモデルを統合し、インフラ管理なしでクリエイターや開発者がシームレスなAPIアクセスを利用できるようにしています。


まとめ

HuggingFace上のDeepSeek V4は、AI史上最もアクセスしやすいフロンティアモデルリリースの一つです。4つのリポジトリ、MITライセンス、包括的な技術レポート、カスタム推論ツールがすべて無料で利用できます。GPUクラスターでの実行、コミュニティ量子化の試用、APIによるアクセスのいずれの場合も、HuggingFaceが出発点となります。