DeepSeek V4 di HuggingFace: Cara Mengakses dan Mengunduh Open Weights

Bobot DeepSeek V4-Pro dan V4-Flash tersedia gratis di HuggingFace dengan Lisensi MIT. Pelajari cara menemukan, mengunduh, menjalankannya secara lokal, atau mengakses lewat Framia.pro.

by Framia

DeepSeek V4 di HuggingFace: Cara Mengakses dan Mengunduh Open Weights

DeepSeek V4 sepenuhnya bersifat open-source, dengan semua bobot model tersedia secara publik di HuggingFace di bawah Lisensi MIT yang permisif. Baik Anda ingin menjalankan model secara lokal, melakukan fine-tuning untuk kasus penggunaan Anda, atau sekadar memeriksa arsitekturnya, HuggingFace adalah saluran distribusi utama untuk DeepSeek V4.

Panduan ini menjelaskan secara detail di mana menemukan model, apa yang ada di setiap repositori, seberapa besar unduhan yang diperlukan, dan cara mulai menggunakannya.


Tautan Repositori HuggingFace DeepSeek V4

DeepSeek menerbitkan empat repositori model dalam koleksi deepseek-ai resmi di HuggingFace:

Repositori Tipe Parameter (Total / Aktif) Presisi Ukuran
deepseek-ai/DeepSeek-V4-Flash-Base Base (pra-latih) 284B / 13B FP8 Mixed ~160 GB
deepseek-ai/DeepSeek-V4-Flash Instruct (RLHF-tuned) 284B / 13B FP4 + FP8 Mixed ~160 GB
deepseek-ai/DeepSeek-V4-Pro-Base Base (pra-latih) 1.6T / 49B FP8 Mixed ~865 GB
deepseek-ai/DeepSeek-V4-Pro Instruct (RLHF-tuned) 1.6T / 49B FP4 + FP8 Mixed ~865 GB

Keempat repositori merupakan bagian dari koleksi deepseek-ai/deepseek-v4.


Isi Setiap Repositori

Setiap repositori model V4 berisi:

  • Bobot model dalam format SafeTensors (dibagi menjadi beberapa shard)
  • DeepSeek_V4.pdf — laporan teknis lengkap
  • Folder encoding/ — skrip Python untuk membangun prompt kompatibel OpenAI dan mengurai keluaran model
  • Folder inference/ — instruksi detail untuk menjalankan model secara lokal
  • LICENSE — file Lisensi MIT
  • README dengan kartu model, tabel benchmark, dan kutipan

Laporan teknis (DeepSeek_V4.pdf) dihosting di repositori Pro dan mencakup detail arsitektur lengkap termasuk mekanisme Hybrid Attention, mHC, dan metodologi pelatihan.


Lisensi: MIT, Bukan Apache

Kesalahpahaman umum adalah bahwa DeepSeek menggunakan lisensi Apache 2.0. DeepSeek V4 dirilis di bawah Lisensi MIT, yang bahkan lebih permisif:

  • ✅ Penggunaan komersial diizinkan
  • ✅ Modifikasi diizinkan
  • ✅ Distribusi diizinkan
  • ✅ Penggunaan pribadi diizinkan
  • ✅ Tidak ada klausul paten atau pembatasan tambahan

Artinya, Anda dapat membangun produk proprietary di atas V4, melakukan fine-tuning dan mendistribusikan turunannya, serta menggunakannya dalam konteks komersial apa pun tanpa batasan (selain mempertahankan pemberitahuan hak cipta MIT).


Cara Mengunduh Bobot DeepSeek V4

Opsi 1: HuggingFace CLI (Direkomendasikan)

pip install huggingface_hub

# Unduh V4-Flash (instruct, ~160 GB)
huggingface-cli download deepseek-ai/DeepSeek-V4-Flash --local-dir ./DeepSeek-V4-Flash

# Unduh V4-Pro (instruct, ~865 GB)
huggingface-cli download deepseek-ai/DeepSeek-V4-Pro --local-dir ./DeepSeek-V4-Pro

Opsi 2: Python dengan huggingface_hub

from huggingface_hub import snapshot_download

snapshot_download(
    repo_id="deepseek-ai/DeepSeek-V4-Flash",
    local_dir="./DeepSeek-V4-Flash"
)

Opsi 3: ModelScope (Direkomendasikan untuk Pengguna di China)

DeepSeek V4 juga tersedia di ModelScope dengan jalur repositori yang sama (deepseek-ai/DeepSeek-V4-Flash, dll.), yang mungkin menawarkan kecepatan unduh lebih cepat dari daratan China.


Persyaratan Penyimpanan dan Bandwidth

Model Ruang Disk VRAM yang Diperlukan Konfigurasi GPU Rekomendasi
V4-Flash ~160 GB ~160 GB VRAM 2x H100 80GB atau 8x A100 40GB
V4-Pro ~865 GB ~865 GB VRAM 16x H100 80GB (atau setara)
V4-Flash (terkuantisasi) ~80 GB ~80 GB VRAM 2x RTX 4090 / 1x RTX 5090
V4-Pro (terkuantisasi) ~200 GB ~200 GB VRAM 4-8x H100

Catatan: DeepSeek menggunakan presisi campuran FP4+FP8, sehingga bobot mentah sudah sangat terkompresi. Versi terkuantisasi dari komunitas (GGUF/GPTQ) mulai bermunculan di HuggingFace yang dapat mengurangi persyaratan ini lebih lanjut.


Menjalankan Model: Catatan Pengaturan Utama

DeepSeek V4 tidak menggunakan template chat Jinja standar HuggingFace. Sebagai gantinya, Anda harus menggunakan skrip encoding kustom yang disediakan di folder encoding/ repositori.

Contoh minimal:

from encoding_dsv4 import encode_messages, parse_message_from_completion_text

messages = [
    {"role": "user", "content": "Jelaskan Arsitektur Hybrid Attention dalam DeepSeek V4"}
]

prompt = encode_messages(messages, thinking_mode="thinking")

import transformers
tokenizer = transformers.AutoTokenizer.from_pretrained("deepseek-ai/DeepSeek-V4-Flash")
tokens = tokenizer.encode(prompt)

Untuk pengaturan inferensi lengkap, lihat inference/README.md di dalam setiap repositori.


Aktivitas Komunitas di HuggingFace

Dalam beberapa hari setelah peluncuran pada 24 April 2026, repositori DeepSeek V4-Pro mencatat lebih dari 123.000 unduhan dan 22 Spaces komunitas yang dibangun di atasnya. Komunitas dengan cepat menghasilkan:

  • Kuantisasi GGUF untuk llama.cpp (memungkinkan inferensi hibrida CPU+GPU)
  • Versi kompatibel LM Studio
  • Build Ollama
  • Paket kompatibel Jan

Kuantisasi yang dikelola komunitas ini membuat V4-Flash dapat berjalan di RTX 4090 tunggal — sebuah pencapaian luar biasa untuk model dengan 284 miliar parameter.


DeepSeek V4 dan Platform AI

Jika Anda lebih memilih akses API daripada mengelola bobot lokal, model V4 juga tersedia melalui berbagai penyedia inferensi. Platform seperti Framia.pro mengintegrasikan model AI mutakhir — termasuk rilis DeepSeek terbaru — untuk memberikan akses API yang mulus bagi kreator dan pengembang tanpa perlu mengelola infrastruktur.


Kesimpulan

DeepSeek V4 di HuggingFace adalah salah satu rilis model frontier yang paling mudah diakses dalam sejarah AI. Empat repositori, lisensi MIT, laporan teknis komprehensif, dan alat inferensi kustom semuanya tersedia secara gratis. Baik Anda menjalankannya di kluster GPU, bereksperimen dengan kuantisasi komunitas, atau mengaksesnya melalui API, HuggingFace adalah titik awal Anda.