DeepSeek V4 на HuggingFace: как получить доступ и скачать открытые веса
DeepSeek V4 является полностью открытым проектом — все веса модели находятся в открытом доступе на HuggingFace под разрешительной лицензией MIT. Хотите ли вы запустить модель локально, дообучить её под свои задачи или просто изучить архитектуру — HuggingFace является основным каналом распространения DeepSeek V4.
Это руководство расскажет вам, где именно найти модели, что содержится в каждом репозитории, каков объём загрузок и как начать работу.
Ссылки на репозитории DeepSeek V4 на HuggingFace
DeepSeek опубликовал четыре репозитория в официальной коллекции deepseek-ai на HuggingFace:
| Репозиторий | Тип | Параметры (Всего / Активных) | Точность | Размер |
|---|---|---|---|---|
| deepseek-ai/DeepSeek-V4-Flash-Base | Базовая (предобученная) | 284B / 13B | FP8 Mixed | ~160 ГБ |
| deepseek-ai/DeepSeek-V4-Flash | Instruct (RLHF-настроенная) | 284B / 13B | FP4 + FP8 Mixed | ~160 ГБ |
| deepseek-ai/DeepSeek-V4-Pro-Base | Базовая (предобученная) | 1.6T / 49B | FP8 Mixed | ~865 ГБ |
| deepseek-ai/DeepSeek-V4-Pro | Instruct (RLHF-настроенная) | 1.6T / 49B | FP4 + FP8 Mixed | ~865 ГБ |
Все четыре репозитория входят в коллекцию deepseek-ai/deepseek-v4.
Содержимое каждого репозитория
Каждый репозиторий модели V4 содержит:
- Веса модели в формате SafeTensors (разбитые на несколько частей)
- DeepSeek_V4.pdf — полный технический отчёт
- Папка encoding/ — Python-скрипты для формирования промптов, совместимых с OpenAI, и разбора вывода модели
- Папка inference/ — подробные инструкции по локальному запуску модели
- LICENSE — файл лицензии MIT
- README с карточкой модели, таблицами бенчмарков и ссылками для цитирования
Технический отчёт (DeepSeek_V4.pdf) размещён в репозитории Pro и содержит полное описание архитектуры: механизм Hybrid Attention, mHC и методологию обучения.
Лицензия: MIT, не Apache
Распространённое заблуждение — считать, что DeepSeek использует лицензию Apache 2.0 (как это было с некоторыми ранними моделями). DeepSeek V4 выпускается под лицензией MIT, которая ещё более разрешительна:
- ✅ Коммерческое использование разрешено
- ✅ Модификация разрешена
- ✅ Распространение разрешено
- ✅ Частное использование разрешено
- ✅ Отсутствуют патентные оговорки или дополнительные ограничения
Это означает, что вы можете создавать проприетарные продукты на базе V4, дообучать и распространять производные модели, использовать их в любом коммерческом контексте без ограничений — за исключением сохранения уведомления об авторских правах MIT.
Как скачать веса DeepSeek V4
Вариант 1: HuggingFace CLI (рекомендуется)
pip install huggingface_hub
# Скачать V4-Flash (instruct, ~160 ГБ)
huggingface-cli download deepseek-ai/DeepSeek-V4-Flash --local-dir ./DeepSeek-V4-Flash
# Скачать V4-Pro (instruct, ~865 ГБ)
huggingface-cli download deepseek-ai/DeepSeek-V4-Pro --local-dir ./DeepSeek-V4-Pro
Вариант 2: Python с huggingface_hub
from huggingface_hub import snapshot_download
snapshot_download(
repo_id="deepseek-ai/DeepSeek-V4-Flash",
local_dir="./DeepSeek-V4-Flash"
)
Вариант 3: ModelScope (рекомендуется для пользователей из Китая)
DeepSeek V4 также доступен на ModelScope по аналогичным путям репозиториев (deepseek-ai/DeepSeek-V4-Flash и др.), что может обеспечить более высокую скорость загрузки с территории материкового Китая.
Требования к хранилищу и пропускной способности
| Модель | Дисковое пространство | Необходимая VRAM | Рекомендуемая конфигурация GPU |
|---|---|---|---|
| V4-Flash | ~160 ГБ | ~160 ГБ VRAM | 2x H100 80 ГБ или 8x A100 40 ГБ |
| V4-Pro | ~865 ГБ | ~865 ГБ VRAM | 16x H100 80 ГБ (или аналог) |
| V4-Flash (квантизованная) | ~80 ГБ | ~80 ГБ VRAM | 2x RTX 4090 / 1x RTX 5090 |
| V4-Pro (квантизованная) | ~200 ГБ | ~200 ГБ VRAM | 4-8x H100 |
Примечание: DeepSeek использует смешанную точность FP4+FP8, поэтому исходные веса уже значительно сжаты. На HuggingFace появляются квантизованные версии от сообщества (GGUF/GPTQ), которые позволяют ещё больше снизить требования к оборудованию.
Запуск модели: ключевые моменты настройки
DeepSeek V4 не использует стандартный шаблон чата Jinja от HuggingFace. Вместо этого необходимо использовать кастомные скрипты кодирования из папки encoding/ репозитория.
Минимальный пример:
from encoding_dsv4 import encode_messages, parse_message_from_completion_text
messages = [
{"role": "user", "content": "Объясните архитектуру Hybrid Attention в DeepSeek V4"}
]
prompt = encode_messages(messages, thinking_mode="thinking")
import transformers
tokenizer = transformers.AutoTokenizer.from_pretrained("deepseek-ai/DeepSeek-V4-Flash")
tokens = tokenizer.encode(prompt)
Для полной настройки инференса обратитесь к файлу inference/README.md в каждом репозитории.
Активность сообщества на HuggingFace
В течение нескольких дней после запуска 24 апреля 2026 года репозиторий DeepSeek V4-Pro набрал более 123 000 загрузок и 22 пользовательских Space, созданных на его основе. Сообщество быстро подготовило:
- GGUF-квантизации для llama.cpp (позволяющие гибридный инференс на CPU+GPU)
- Версии, совместимые с LM Studio
- Сборки для Ollama
- Пакеты для Jan
Благодаря этим квантизациям от сообщества V4-Flash теперь можно запустить на одной RTX 4090 — впечатляющий результат для модели с 284 миллиардами параметров.
DeepSeek V4 и AI-платформы
Если вы предпочитаете доступ через API, а не самостоятельное управление весами, модели V4 также доступны через ряд провайдеров инференса. Платформы вроде Framia.pro интегрируют передовые AI-модели — включая последние релизы DeepSeek — и предоставляют разработчикам и авторам удобный API-доступ без необходимости управлять инфраструктурой.
Заключение
DeepSeek V4 на HuggingFace — один из наиболее доступных релизов передовых моделей в истории AI. Четыре репозитория, лицензия MIT, исчерпывающий технический отчёт и кастомный инструментарий для инференса — всё это в открытом доступе. Запускаете ли вы модель на кластере GPU, экспериментируете с квантизациями от сообщества или обращаетесь к ней через API — HuggingFace станет вашей отправной точкой.