Анонс DeepSeek V4: Всё, что было раскрыто 24 апреля 2026 года
24 апреля 2026 года DeepSeek выпустил один из наиболее значимых анонсов в сфере открытого ИИ за этот год: превью-релиз DeepSeek V4, включающий две модели — V4-Pro и V4-Flash — с открытыми весами, мгновенным доступом к API и полным техническим отчётом. Вот исчерпывающий обзор всего, что было объявлено.
Анонс
Официальное сообщение DeepSeek описывало релиз лаконично, но впечатляюще:
🚀 DeepSeek-V4 Preview официально запущен и открыт! Добро пожаловать в эпоху экономичного контекста в 1 млн токенов.
Анонс был опубликован 24 апреля 2026 года через официальную страницу документации API DeepSeek и аккаунты в социальных сетях. Одновременно были выпущены:
- Веса модели на HuggingFace и ModelScope
- Обновлённый API (тот же базовый URL, новые названия моделей)
- Технический отчёт в формате PDF (
DeepSeek_V4.pdf) в репозитории HuggingFace - Обновлённый интерфейс чата на chat.deepseek.com
Две объявленные модели
DeepSeek-V4-Pro
«Производительность, сравнимая с лучшими закрытыми моделями мира.»
- 1,6 трлн общих параметров / 49 млрд активных (MoE)
- Лицензия MIT, открытые веса
- Доступна через API как
deepseek-v4-pro - $1,74 за входные данные / $3,48 за выходные данные на 1 млн токенов
- Размер загрузки: ~865 ГБ
- Режим «Эксперт» на chat.deepseek.com
DeepSeek-V4-Flash
«Ваш быстрый, эффективный и экономичный выбор.»
- 284 млрд общих параметров / 13 млрд активных (MoE)
- Лицензия MIT, открытые веса
- Доступна через API как
deepseek-v4-flash - $0,14 за входные данные / $0,28 за выходные данные на 1 млн токенов
- Размер загрузки: ~160 ГБ
- Режим «Мгновенный» на chat.deepseek.com
Четыре ключевых тезиса
DeepSeek структурировал анонс V4 вокруг четырёх ключевых направлений:
1. DeepSeek-V4-Pro: производительность фронтирного класса
- Расширенные агентные возможности: SOTA среди открытых моделей в бенчмарках Agentic Coding
- Богатые знания о мире: Лидирует среди всех текущих открытых моделей, уступая лишь Gemini-3.1-Pro по знаниям о мире
- Рассуждение мирового уровня: Превосходит все открытые модели в математике/STEM/программировании, конкурируя с лучшими закрытыми моделями
2. DeepSeek-V4-Flash: почти Pro за долю цены
- Возможности рассуждения вплотную приближаются к V4-Pro
- Сравнима с V4-Pro на простых агентных задачах
- Меньший размер параметров = более быстрые ответы + высококонкурентные цены на API
3. Структурные инновации и сверхвысокая эффективность контекста
- Новый механизм внимания: пословная компрессия + DSA (DeepSeek Sparse Attention / гибрид CSA+HCA)
- Пиковая эффективность: лучшая в мире работа с длинным контекстом при резко сниженных затратах на вычисления и память
- Стандарт в 1 млн токенов: Контекст в 1 млн токенов стал значением по умолчанию во всех официальных сервисах DeepSeek
4. Специализированная оптимизация под агентные возможности
- Бесшовная интеграция с ведущими ИИ-агентами: Claude Code, OpenClaw и OpenCode
- Уже используется в агентном программировании внутри самой DeepSeek
- V4 умеет генерировать полноценные документы (продемонстрировано с образцом PDF в ходе анонса)
Изменения в API
DeepSeek обновил API в тот же день:
Новые названия моделей:
deepseek-v4-pro(флагман)deepseek-v4-flash(экономичная)
Без изменений:
- Базовый URL API (
https://api.deepseek.com/v1) - Аутентификация
- SDK/клиентские библиотеки (полная совместимость с форматами OpenAI и Anthropic сохранена)
Вывод из эксплуатации устаревших моделей:
⚠️
deepseek-chatиdeepseek-reasonerбудут полностью выведены из эксплуатации и станут недоступны после 24 июля 2026 года, 15:59 (UTC). Сейчас они перенаправляются на deepseek-v4-flash (в режиме без рассуждений и с рассуждениями соответственно).
Опубликованный технический отчёт
Полный технический отчёт — «DeepSeek-V4: Towards Highly Efficient Million-Token Context Intelligence» — был опубликован одновременно с весами модели в репозитории V4-Pro на HuggingFace.
В отчёте задокументированы:
- Гибридная архитектура внимания (CSA + HCA)
- Гиперсоединения с ограничением многообразия (mHC)
- Применение оптимизатора Muon
- Масштаб предобучения: более 32 трлн токенов
- Двухэтапный пайплайн дообучения (специализация экспертов + on-policy дистилляция)
- Полная оценка на бенчмарках по знаниям, рассуждению, программированию, длинному контексту и агентным задачам
Контекст анонса
Релиз 24 апреля состоялся спустя несколько недель после:
- GPT-5.5 от OpenAI — новой фронтирной модели OpenAI
- Claude Opus 4.7 от Anthropic — последнего флагмана Anthropic
DeepSeek позиционировал V4 как прямого конкурента этим моделям за долю их цены. По данным аналитики DataCamp: «DeepSeek заявляет, что отстаёт от передовых закрытых моделей лишь на 3–6 месяцев, при этом стоя значительно дешевле конкурентов вроде OpenAI и Anthropic.»
Реакция ИИ-сообщества
Реакция сообщества на Reddit (r/DeepSeek, r/singularity), HuggingFace и в каналах для разработчиков оказалась крайне положительной, с повторяющимися темами:
- Codeforces 3206: Мгновенно отмечен как наивысший рейтинг ИИ на Codeforces за всю историю — исторический рубеж для спортивного программирования
- Цена Flash: $0,14/млн входных токенов повсеместно отмечена как одна из самых низких среди API-токенов фронтирного класса
- 1 млн токенов как стандарт: Выделена как важный отраслевой рубеж
- Лицензия MIT: Встречена с восторгом как более свободная, чем лицензия Llama 3, обеспечивающая максимальное коммерческое использование
- Скачивания на HuggingFace: V4-Pro набрала более 123 000 загрузок за несколько дней после релиза
Послание DeepSeek о доверии и долгосрочности
Анонс завершился характерным посланием от DeepSeek:
🔹 На фоне последнего повышенного внимания напоминаем: пожалуйста, полагайтесь только на наши официальные аккаунты для получения новостей о DeepSeek. Заявления из других каналов не отражают нашу позицию.
🔹 Спасибо за неизменное доверие. Мы остаёмся приверженными долгосрочности и неуклонно движемся к нашей конечной цели — AGI.
Что V4 означает для экосистемы ИИ
Анонс 24 апреля обозначает поворотный момент в истории ИИ:
- Разрыв в возможностях открытого ПО: Теперь измеряется месяцами, а не поколениями
- Ценообразование: Flash в 35 раз дешевле GPT-5.5; Pro — в 3 раза
- Стандарты контекста: 1 млн токенов становится ожидаемым минимумом, а не премиум-функцией
- Аппаратная независимость: Фронтирное обучение достижимо на чипах Huawei Ascend
Для платформ вроде Framia.pro, интегрирующих возможности ИИ мирового уровня для авторов и разработчиков — будь то написание текстов, программирование, дизайн или сложные творческие рабочие процессы — анонс DeepSeek V4 24 апреля олицетворяет именно тот вид прогресса, который делает фронтирный ИИ более доступным и экономически выгодным для всех.
Краткий справочник: Итоги анонса 24 апреля
| Параметр | Подробности |
|---|---|
| Тип релиза | Превью |
| Выпущенные модели | V4-Pro (1,6T/49B) + V4-Flash (284B/13B) |
| Лицензия | MIT |
| Контекстное окно | 1 млн токенов (обе модели) |
| Цена Flash | $0,14/$0,28 на 1 млн токенов |
| Цена Pro | $1,74/$3,48 на 1 млн токенов |
| Открытые веса | Да (HuggingFace + ModelScope) |
| Совместимость API | Форматы OpenAI + Anthropic |
| Режимы рассуждения | Non-think / Think High / Think Max |
| Ключевой бенчмарк | Codeforces 3206 (исторический максимум) |
| Вывод устаревших моделей | 24 июля 2026 года |
| Технический отчёт | Доступен в репозитории HuggingFace |