DeepSeek V4 di HuggingFace: Cara Mengakses dan Mengunduh Open Weights
DeepSeek V4 sepenuhnya bersifat open-source, dengan semua bobot model tersedia secara publik di HuggingFace di bawah Lisensi MIT yang permisif. Baik Anda ingin menjalankan model secara lokal, melakukan fine-tuning untuk kasus penggunaan Anda, atau sekadar memeriksa arsitekturnya, HuggingFace adalah saluran distribusi utama untuk DeepSeek V4.
Panduan ini menjelaskan secara detail di mana menemukan model, apa yang ada di setiap repositori, seberapa besar unduhan yang diperlukan, dan cara mulai menggunakannya.
Tautan Repositori HuggingFace DeepSeek V4
DeepSeek menerbitkan empat repositori model dalam koleksi deepseek-ai resmi di HuggingFace:
| Repositori | Tipe | Parameter (Total / Aktif) | Presisi | Ukuran |
|---|---|---|---|---|
| deepseek-ai/DeepSeek-V4-Flash-Base | Base (pra-latih) | 284B / 13B | FP8 Mixed | ~160 GB |
| deepseek-ai/DeepSeek-V4-Flash | Instruct (RLHF-tuned) | 284B / 13B | FP4 + FP8 Mixed | ~160 GB |
| deepseek-ai/DeepSeek-V4-Pro-Base | Base (pra-latih) | 1.6T / 49B | FP8 Mixed | ~865 GB |
| deepseek-ai/DeepSeek-V4-Pro | Instruct (RLHF-tuned) | 1.6T / 49B | FP4 + FP8 Mixed | ~865 GB |
Keempat repositori merupakan bagian dari koleksi deepseek-ai/deepseek-v4.
Isi Setiap Repositori
Setiap repositori model V4 berisi:
- Bobot model dalam format SafeTensors (dibagi menjadi beberapa shard)
- DeepSeek_V4.pdf — laporan teknis lengkap
- Folder encoding/ — skrip Python untuk membangun prompt kompatibel OpenAI dan mengurai keluaran model
- Folder inference/ — instruksi detail untuk menjalankan model secara lokal
- LICENSE — file Lisensi MIT
- README dengan kartu model, tabel benchmark, dan kutipan
Laporan teknis (DeepSeek_V4.pdf) dihosting di repositori Pro dan mencakup detail arsitektur lengkap termasuk mekanisme Hybrid Attention, mHC, dan metodologi pelatihan.
Lisensi: MIT, Bukan Apache
Kesalahpahaman umum adalah bahwa DeepSeek menggunakan lisensi Apache 2.0. DeepSeek V4 dirilis di bawah Lisensi MIT, yang bahkan lebih permisif:
- ✅ Penggunaan komersial diizinkan
- ✅ Modifikasi diizinkan
- ✅ Distribusi diizinkan
- ✅ Penggunaan pribadi diizinkan
- ✅ Tidak ada klausul paten atau pembatasan tambahan
Artinya, Anda dapat membangun produk proprietary di atas V4, melakukan fine-tuning dan mendistribusikan turunannya, serta menggunakannya dalam konteks komersial apa pun tanpa batasan (selain mempertahankan pemberitahuan hak cipta MIT).
Cara Mengunduh Bobot DeepSeek V4
Opsi 1: HuggingFace CLI (Direkomendasikan)
pip install huggingface_hub
# Unduh V4-Flash (instruct, ~160 GB)
huggingface-cli download deepseek-ai/DeepSeek-V4-Flash --local-dir ./DeepSeek-V4-Flash
# Unduh V4-Pro (instruct, ~865 GB)
huggingface-cli download deepseek-ai/DeepSeek-V4-Pro --local-dir ./DeepSeek-V4-Pro
Opsi 2: Python dengan huggingface_hub
from huggingface_hub import snapshot_download
snapshot_download(
repo_id="deepseek-ai/DeepSeek-V4-Flash",
local_dir="./DeepSeek-V4-Flash"
)
Opsi 3: ModelScope (Direkomendasikan untuk Pengguna di China)
DeepSeek V4 juga tersedia di ModelScope dengan jalur repositori yang sama (deepseek-ai/DeepSeek-V4-Flash, dll.), yang mungkin menawarkan kecepatan unduh lebih cepat dari daratan China.
Persyaratan Penyimpanan dan Bandwidth
| Model | Ruang Disk | VRAM yang Diperlukan | Konfigurasi GPU Rekomendasi |
|---|---|---|---|
| V4-Flash | ~160 GB | ~160 GB VRAM | 2x H100 80GB atau 8x A100 40GB |
| V4-Pro | ~865 GB | ~865 GB VRAM | 16x H100 80GB (atau setara) |
| V4-Flash (terkuantisasi) | ~80 GB | ~80 GB VRAM | 2x RTX 4090 / 1x RTX 5090 |
| V4-Pro (terkuantisasi) | ~200 GB | ~200 GB VRAM | 4-8x H100 |
Catatan: DeepSeek menggunakan presisi campuran FP4+FP8, sehingga bobot mentah sudah sangat terkompresi. Versi terkuantisasi dari komunitas (GGUF/GPTQ) mulai bermunculan di HuggingFace yang dapat mengurangi persyaratan ini lebih lanjut.
Menjalankan Model: Catatan Pengaturan Utama
DeepSeek V4 tidak menggunakan template chat Jinja standar HuggingFace. Sebagai gantinya, Anda harus menggunakan skrip encoding kustom yang disediakan di folder encoding/ repositori.
Contoh minimal:
from encoding_dsv4 import encode_messages, parse_message_from_completion_text
messages = [
{"role": "user", "content": "Jelaskan Arsitektur Hybrid Attention dalam DeepSeek V4"}
]
prompt = encode_messages(messages, thinking_mode="thinking")
import transformers
tokenizer = transformers.AutoTokenizer.from_pretrained("deepseek-ai/DeepSeek-V4-Flash")
tokens = tokenizer.encode(prompt)
Untuk pengaturan inferensi lengkap, lihat inference/README.md di dalam setiap repositori.
Aktivitas Komunitas di HuggingFace
Dalam beberapa hari setelah peluncuran pada 24 April 2026, repositori DeepSeek V4-Pro mencatat lebih dari 123.000 unduhan dan 22 Spaces komunitas yang dibangun di atasnya. Komunitas dengan cepat menghasilkan:
- Kuantisasi GGUF untuk llama.cpp (memungkinkan inferensi hibrida CPU+GPU)
- Versi kompatibel LM Studio
- Build Ollama
- Paket kompatibel Jan
Kuantisasi yang dikelola komunitas ini membuat V4-Flash dapat berjalan di RTX 4090 tunggal — sebuah pencapaian luar biasa untuk model dengan 284 miliar parameter.
DeepSeek V4 dan Platform AI
Jika Anda lebih memilih akses API daripada mengelola bobot lokal, model V4 juga tersedia melalui berbagai penyedia inferensi. Platform seperti Framia.pro mengintegrasikan model AI mutakhir — termasuk rilis DeepSeek terbaru — untuk memberikan akses API yang mulus bagi kreator dan pengembang tanpa perlu mengelola infrastruktur.
Kesimpulan
DeepSeek V4 di HuggingFace adalah salah satu rilis model frontier yang paling mudah diakses dalam sejarah AI. Empat repositori, lisensi MIT, laporan teknis komprehensif, dan alat inferensi kustom semuanya tersedia secara gratis. Baik Anda menjalankannya di kluster GPU, bereksperimen dengan kuantisasi komunitas, atau mengaksesnya melalui API, HuggingFace adalah titik awal Anda.