DeepSeek V4をHuggingFaceで使う:オープンウェイトのアクセス・ダウンロード方法
DeepSeek V4は完全オープンソースのモデルであり、すべてのモデルウェイトがHuggingFace上で寛容なMITライセンスのもと公開されています。ローカルでモデルを動かしたい方、特定のユースケース向けにファインチューニングしたい方、あるいはアーキテクチャを確認したい方、どのような目的にもHuggingFaceがDeepSeek V4の主要な配布チャネルです。
このガイドでは、モデルの場所、各リポジトリの内容、ダウンロードサイズ、そして使い始め方まで詳しく解説します。
DeepSeek V4 HuggingFaceリポジトリリンク
DeepSeekは公式のdeepseek-ai HuggingFaceコレクションに4つのモデルリポジトリを公開しています:
| リポジトリ | タイプ | パラメータ数(合計/アクティブ) | 精度 | サイズ |
|---|---|---|---|---|
| deepseek-ai/DeepSeek-V4-Flash-Base | ベース(事前学習済み) | 284B / 13B | FP8 Mixed | ~160 GB |
| deepseek-ai/DeepSeek-V4-Flash | インストラクト(RLHF調整済み) | 284B / 13B | FP4 + FP8 Mixed | ~160 GB |
| deepseek-ai/DeepSeek-V4-Pro-Base | ベース(事前学習済み) | 1.6T / 49B | FP8 Mixed | ~865 GB |
| deepseek-ai/DeepSeek-V4-Pro | インストラクト(RLHF調整済み) | 1.6T / 49B | FP4 + FP8 Mixed | ~865 GB |
4つのリポジトリはすべてdeepseek-ai/deepseek-v4コレクションの一部です。
各リポジトリの内容
各V4モデルリポジトリには以下が含まれています:
- モデルウェイト — SafeTensors形式(複数のシャードに分割)
- DeepSeek_V4.pdf — 完全な技術レポート
- encoding/ フォルダ — OpenAI互換プロンプトの構築とモデル出力のパースを行うPythonスクリプト
- inference/ フォルダ — ローカルでモデルを実行するための詳細な手順
- LICENSE — MITライセンスファイル
- README — モデルカード、ベンチマーク表、引用情報
技術レポート(DeepSeek_V4.pdf)はProリポジトリに収録されており、ハイブリッドアテンション機構、mHC、トレーニング手法などの詳細なアーキテクチャ情報が含まれています。
ライセンス:MIT(Apache 2.0ではありません)
DeepSeekがApache 2.0ライセンスを使用していると誤解されることがありますが(一部の以前のモデルではそうでした)、DeepSeek V4はMITライセンスのもとでリリースされており、さらに寛容な条件となっています:
- ✅ 商用利用可
- ✅ 改変可
- ✅ 再配布可
- ✅ 個人利用可
- ✅ 特許条項や追加制限なし
つまり、V4をベースにした独自製品の開発、派生物のファインチューニングと再配布、あらゆる商用コンテキストでの利用が、MITの著作権表示を保持するだけで制限なく可能です。
DeepSeek V4ウェイトのダウンロード方法
方法1:HuggingFace CLI(推奨)
pip install huggingface_hub
# V4-Flashをダウンロード(インストラクト、約160 GB)
huggingface-cli download deepseek-ai/DeepSeek-V4-Flash --local-dir ./DeepSeek-V4-Flash
# V4-Proをダウンロード(インストラクト、約865 GB)
huggingface-cli download deepseek-ai/DeepSeek-V4-Pro --local-dir ./DeepSeek-V4-Pro
方法2:Pythonとhuggingface_hubを使用
from huggingface_hub import snapshot_download
snapshot_download(
repo_id="deepseek-ai/DeepSeek-V4-Flash",
local_dir="./DeepSeek-V4-Flash"
)
方法3:ModelScope(中国本土のユーザーに推奨)
DeepSeek V4はModelScopeでも同じリポジトリパス(deepseek-ai/DeepSeek-V4-Flashなど)で利用可能であり、中国本土からは高速でダウンロードできる場合があります。
ストレージと帯域幅の要件
| モデル | ディスク容量 | 必要VRAM | 推奨GPU構成 |
|---|---|---|---|
| V4-Flash | ~160 GB | ~160 GB VRAM | 2× H100 80GB または 8× A100 40GB |
| V4-Pro | ~865 GB | ~865 GB VRAM | 16× H100 80GB(または同等品) |
| V4-Flash(量子化済み) | ~80 GB | ~80 GB VRAM | 2× RTX 4090 / 1× RTX 5090 |
| V4-Pro(量子化済み) | ~200 GB | ~200 GB VRAM | 4〜8× H100 |
注意:DeepSeekはFP4+FP8混合精度を使用しているため、生ウェイトはすでに大幅に圧縮されています。コミュニティが提供する量子化バージョン(GGUF/GPTQ)がHuggingFaceに登場しており、必要リソースをさらに削減できます。
モデルの実行:セットアップ時の注意点
DeepSeek V4は標準のHuggingFace Jinja chatテンプレートを使用していません。代わりに、リポジトリのencoding/フォルダに収録されているカスタムエンコーディングスクリプトを使用する必要があります。
最小限の実行例:
from encoding_dsv4 import encode_messages, parse_message_from_completion_text
messages = [
{"role": "user", "content": "DeepSeek V4のハイブリッドアテンションアーキテクチャを説明してください"}
]
prompt = encode_messages(messages, thinking_mode="thinking")
import transformers
tokenizer = transformers.AutoTokenizer.from_pretrained("deepseek-ai/DeepSeek-V4-Flash")
tokens = tokenizer.encode(prompt)
完全な推論セットアップについては、各リポジトリ内のinference/README.mdを参照してください。
HuggingFaceでのコミュニティ活動
2026年4月24日のリリースから数日以内に、DeepSeek V4-Proリポジトリは123,000回以上のダウンロードと22のコミュニティSpaceを記録しました。コミュニティはすばやく以下を提供しました:
- llama.cpp向けGGUF量子化(CPU+GPUハイブリッド推論を可能に)
- LM Studio互換バージョン
- Ollamaビルド
- Jan互換パッケージ
これらのコミュニティ管理の量子化により、V4-Flashが単一のRTX 4090で動作するようになっています — 2840億パラメータモデルとしては驚くべき成果です。
DeepSeek V4とAIプラットフォーム
ローカルウェイトの管理ではなくAPI経由でのアクセスを好む方には、V4モデルは複数の推論プロバイダーを通じても利用可能です。Framia.proのようなプラットフォームは、DeepSeekの最新リリースを含む最先端AIモデルを統合し、インフラ管理なしでクリエイターや開発者がシームレスなAPIアクセスを利用できるようにしています。
まとめ
HuggingFace上のDeepSeek V4は、AI史上最もアクセスしやすいフロンティアモデルリリースの一つです。4つのリポジトリ、MITライセンス、包括的な技術レポート、カスタム推論ツールがすべて無料で利用できます。GPUクラスターでの実行、コミュニティ量子化の試用、APIによるアクセスのいずれの場合も、HuggingFaceが出発点となります。