DeepSeek V4 на HuggingFace: как получить доступ и скачать открытые веса

Веса DeepSeek V4-Pro и V4-Flash доступны бесплатно на HuggingFace под лицензией MIT. Узнайте, как их найти, скачать и запустить локально или использовать через Framia.pro.

by Framia

DeepSeek V4 на HuggingFace: как получить доступ и скачать открытые веса

DeepSeek V4 является полностью открытым проектом — все веса модели находятся в открытом доступе на HuggingFace под разрешительной лицензией MIT. Хотите ли вы запустить модель локально, дообучить её под свои задачи или просто изучить архитектуру — HuggingFace является основным каналом распространения DeepSeek V4.

Это руководство расскажет вам, где именно найти модели, что содержится в каждом репозитории, каков объём загрузок и как начать работу.


Ссылки на репозитории DeepSeek V4 на HuggingFace

DeepSeek опубликовал четыре репозитория в официальной коллекции deepseek-ai на HuggingFace:

Репозиторий Тип Параметры (Всего / Активных) Точность Размер
deepseek-ai/DeepSeek-V4-Flash-Base Базовая (предобученная) 284B / 13B FP8 Mixed ~160 ГБ
deepseek-ai/DeepSeek-V4-Flash Instruct (RLHF-настроенная) 284B / 13B FP4 + FP8 Mixed ~160 ГБ
deepseek-ai/DeepSeek-V4-Pro-Base Базовая (предобученная) 1.6T / 49B FP8 Mixed ~865 ГБ
deepseek-ai/DeepSeek-V4-Pro Instruct (RLHF-настроенная) 1.6T / 49B FP4 + FP8 Mixed ~865 ГБ

Все четыре репозитория входят в коллекцию deepseek-ai/deepseek-v4.


Содержимое каждого репозитория

Каждый репозиторий модели V4 содержит:

  • Веса модели в формате SafeTensors (разбитые на несколько частей)
  • DeepSeek_V4.pdf — полный технический отчёт
  • Папка encoding/ — Python-скрипты для формирования промптов, совместимых с OpenAI, и разбора вывода модели
  • Папка inference/ — подробные инструкции по локальному запуску модели
  • LICENSE — файл лицензии MIT
  • README с карточкой модели, таблицами бенчмарков и ссылками для цитирования

Технический отчёт (DeepSeek_V4.pdf) размещён в репозитории Pro и содержит полное описание архитектуры: механизм Hybrid Attention, mHC и методологию обучения.


Лицензия: MIT, не Apache

Распространённое заблуждение — считать, что DeepSeek использует лицензию Apache 2.0 (как это было с некоторыми ранними моделями). DeepSeek V4 выпускается под лицензией MIT, которая ещё более разрешительна:

  • ✅ Коммерческое использование разрешено
  • ✅ Модификация разрешена
  • ✅ Распространение разрешено
  • ✅ Частное использование разрешено
  • ✅ Отсутствуют патентные оговорки или дополнительные ограничения

Это означает, что вы можете создавать проприетарные продукты на базе V4, дообучать и распространять производные модели, использовать их в любом коммерческом контексте без ограничений — за исключением сохранения уведомления об авторских правах MIT.


Как скачать веса DeepSeek V4

Вариант 1: HuggingFace CLI (рекомендуется)

pip install huggingface_hub

# Скачать V4-Flash (instruct, ~160 ГБ)
huggingface-cli download deepseek-ai/DeepSeek-V4-Flash --local-dir ./DeepSeek-V4-Flash

# Скачать V4-Pro (instruct, ~865 ГБ)
huggingface-cli download deepseek-ai/DeepSeek-V4-Pro --local-dir ./DeepSeek-V4-Pro

Вариант 2: Python с huggingface_hub

from huggingface_hub import snapshot_download

snapshot_download(
    repo_id="deepseek-ai/DeepSeek-V4-Flash",
    local_dir="./DeepSeek-V4-Flash"
)

Вариант 3: ModelScope (рекомендуется для пользователей из Китая)

DeepSeek V4 также доступен на ModelScope по аналогичным путям репозиториев (deepseek-ai/DeepSeek-V4-Flash и др.), что может обеспечить более высокую скорость загрузки с территории материкового Китая.


Требования к хранилищу и пропускной способности

Модель Дисковое пространство Необходимая VRAM Рекомендуемая конфигурация GPU
V4-Flash ~160 ГБ ~160 ГБ VRAM 2x H100 80 ГБ или 8x A100 40 ГБ
V4-Pro ~865 ГБ ~865 ГБ VRAM 16x H100 80 ГБ (или аналог)
V4-Flash (квантизованная) ~80 ГБ ~80 ГБ VRAM 2x RTX 4090 / 1x RTX 5090
V4-Pro (квантизованная) ~200 ГБ ~200 ГБ VRAM 4-8x H100

Примечание: DeepSeek использует смешанную точность FP4+FP8, поэтому исходные веса уже значительно сжаты. На HuggingFace появляются квантизованные версии от сообщества (GGUF/GPTQ), которые позволяют ещё больше снизить требования к оборудованию.


Запуск модели: ключевые моменты настройки

DeepSeek V4 не использует стандартный шаблон чата Jinja от HuggingFace. Вместо этого необходимо использовать кастомные скрипты кодирования из папки encoding/ репозитория.

Минимальный пример:

from encoding_dsv4 import encode_messages, parse_message_from_completion_text

messages = [
    {"role": "user", "content": "Объясните архитектуру Hybrid Attention в DeepSeek V4"}
]

prompt = encode_messages(messages, thinking_mode="thinking")

import transformers
tokenizer = transformers.AutoTokenizer.from_pretrained("deepseek-ai/DeepSeek-V4-Flash")
tokens = tokenizer.encode(prompt)

Для полной настройки инференса обратитесь к файлу inference/README.md в каждом репозитории.


Активность сообщества на HuggingFace

В течение нескольких дней после запуска 24 апреля 2026 года репозиторий DeepSeek V4-Pro набрал более 123 000 загрузок и 22 пользовательских Space, созданных на его основе. Сообщество быстро подготовило:

  • GGUF-квантизации для llama.cpp (позволяющие гибридный инференс на CPU+GPU)
  • Версии, совместимые с LM Studio
  • Сборки для Ollama
  • Пакеты для Jan

Благодаря этим квантизациям от сообщества V4-Flash теперь можно запустить на одной RTX 4090 — впечатляющий результат для модели с 284 миллиардами параметров.


DeepSeek V4 и AI-платформы

Если вы предпочитаете доступ через API, а не самостоятельное управление весами, модели V4 также доступны через ряд провайдеров инференса. Платформы вроде Framia.pro интегрируют передовые AI-модели — включая последние релизы DeepSeek — и предоставляют разработчикам и авторам удобный API-доступ без необходимости управлять инфраструктурой.


Заключение

DeepSeek V4 на HuggingFace — один из наиболее доступных релизов передовых моделей в истории AI. Четыре репозитория, лицензия MIT, исчерпывающий технический отчёт и кастомный инструментарий для инференса — всё это в открытом доступе. Запускаете ли вы модель на кластере GPU, экспериментируете с квантизациями от сообщества или обращаетесь к ней через API — HuggingFace станет вашей отправной точкой.