Annonce DeepSeek V4 : Tout ce qui a été révélé le 24 avril 2026
Le 24 avril 2026, DeepSeek a lâché l'une des annonces open source les plus importantes de l'année dans le domaine de l'IA : la sortie en préversion de DeepSeek V4, composée de deux modèles — V4-Pro et V4-Flash — avec des poids ouverts, un accès API immédiat et un rapport technique complet. Voici un résumé exhaustif de tout ce qui a été annoncé.
L'annonce
Le communiqué officiel de DeepSeek décrivait le lancement de façon sobre mais percutante :
🚀 DeepSeek-V4 Preview est officiellement en ligne et open source ! Bienvenue dans l'ère du contexte 1M tokens économique.
L'annonce a été faite le 24 avril 2026 via la page de documentation officielle de l'API de DeepSeek et ses comptes sur les réseaux sociaux, avec la publication simultanée de :
- Les poids du modèle sur HuggingFace et ModelScope
- L'API mise à jour (même URL de base, nouveaux noms de modèles)
- Le rapport technique en PDF (
DeepSeek_V4.pdf) dans le dépôt HuggingFace - L'interface de chat mise à jour sur chat.deepseek.com
Les deux modèles annoncés
DeepSeek-V4-Pro
« Des performances rivalisant avec les meilleurs modèles closed source au monde. »
- 1 600 milliards de paramètres totaux / 49 milliards actifs (MoE)
- Licence MIT, poids ouverts
- Disponible via l'API sous le nom
deepseek-v4-pro - 1,74 $ en entrée / 3,48 $ en sortie par million de tokens
- Taille du téléchargement : ~865 Go
- Mode Expert sur chat.deepseek.com
DeepSeek-V4-Flash
« Votre choix rapide, efficace et économique. »
- 284 milliards de paramètres totaux / 13 milliards actifs (MoE)
- Licence MIT, poids ouverts
- Disponible via l'API sous le nom
deepseek-v4-flash - 0,14 $ en entrée / 0,28 $ en sortie par million de tokens
- Taille du téléchargement : ~160 Go
- Mode Instant sur chat.deepseek.com
Les quatre grandes promesses
DeepSeek a structuré son annonce de V4 autour de quatre piliers :
1. DeepSeek-V4-Pro : Performances de pointe
- Capacités agentiques renforcées : SOTA open source sur les benchmarks de codage agentique
- Connaissance encyclopédique du monde : En tête de tous les modèles open source actuels, dépassé seulement par Gemini-3.1-Pro en connaissance du monde
- Raisonnement de classe mondiale : Surpasse tous les modèles open source en maths/sciences/codage, rivalisant avec les meilleurs modèles closed source
2. DeepSeek-V4-Flash : Proche du Pro, à une fraction du coût
- Des capacités de raisonnement proches de V4-Pro
- Performances équivalentes à V4-Pro sur les tâches agentiques simples
- Taille de paramètres réduite = temps de réponse plus rapides + tarification API très compétitive
3. Innovation structurelle et efficacité de contexte ultra-élevée
- Attention inédite : compression par token + DSA (DeepSeek Sparse Attention / hybride CSA+HCA)
- Efficacité maximale : contexte long de niveau mondial avec des coûts de calcul et mémoire drastiquement réduits
- 1M en standard : Un contexte d'1 million de tokens devient la valeur par défaut pour tous les services officiels DeepSeek
4. Optimisation dédiée aux capacités agentiques
- Intégration transparente avec les principaux agents IA : Claude Code, OpenClaw et OpenCode
- Propulse déjà le codage agentique interne de DeepSeek
- V4 peut générer des documents complets (démontré avec un exemple de PDF lors de l'annonce)
Modifications de l'API annoncées
DeepSeek a mis à jour son API le même jour :
Nouveaux noms de modèles :
deepseek-v4-pro(phare)deepseek-v4-flash(économique)
Aucun changement requis pour :
- L'URL de base de l'API (
https://api.deepseek.com/v1) - L'authentification
- Les SDK/bibliothèques clientes (compatibilité totale avec les API OpenAI et Anthropic maintenue)
Retraite des modèles hérités :
⚠️
deepseek-chatetdeepseek-reasonerseront définitivement retirés et inaccessibles après le 24 juillet 2026 à 15h59 (UTC). Ils redirigent actuellement vers deepseek-v4-flash (respectivement en mode non-réflexif et réflexif).
Rapport technique publié
Le rapport technique complet — « DeepSeek-V4 : Towards Highly Efficient Million-Token Context Intelligence » — a été publié simultanément avec les poids du modèle dans le dépôt HuggingFace V4-Pro.
Le rapport documente :
- L'architecture d'attention hybride (CSA + HCA)
- Les Hyper-Connexions à contraintes de variété (mHC)
- L'adoption de l'optimiseur Muon
- Une échelle de pré-entraînement dépassant 32 000 milliards de tokens
- Un pipeline de post-entraînement en deux étapes (spécialisation d'experts + distillation on-policy)
- Une évaluation complète sur des benchmarks de connaissance, raisonnement, codage, contexte long et tâches agentiques
Contexte de l'annonce
La sortie du 24 avril est intervenue quelques semaines après :
- GPT-5.5 d'OpenAI — nouveau modèle frontier d'OpenAI
- Claude Opus 4.7 d'Anthropic — dernier vaisseau amiral d'Anthropic
DeepSeek a positionné V4 comme un concurrent direct de ces modèles, à une fraction de leur prix. Selon l'analyse de DataCamp : « DeepSeek affirme ne prendre que 3 à 6 mois de retard sur les modèles closed source les plus avancés, tout en coûtant une fraction du prix de concurrents comme OpenAI et Anthropic. »
Réactions de la communauté IA
Les réactions sur Reddit (r/DeepSeek, r/singularity), HuggingFace et les canaux de développeurs ont été très positives, avec des thèmes récurrents :
- Codeforces 3206 : Immédiatement salué comme la plus haute note Codeforces jamais atteinte par une IA — un jalon historique pour la programmation compétitive
- Prix Flash : 0,14 $/M tokens en entrée largement cité comme l'un des tokens API de classe frontier les moins chers disponibles
- 1M de contexte par défaut : Mis en avant comme un jalon majeur pour l'industrie
- Licence MIT : Saluée comme plus permissive que la licence Llama 3, permettant une utilisation commerciale maximale
- Téléchargements HuggingFace : V4-Pro a atteint plus de 123 000 téléchargements en quelques jours après sa sortie
Message de DeepSeek sur la confiance et le long-termisme
L'annonce s'est conclue par un message caractéristique de DeepSeek :
🔹 Face à l'attention récente, un rappel rapide : veuillez vous fier uniquement à nos comptes officiels pour les nouvelles concernant DeepSeek. Les déclarations provenant d'autres canaux ne reflètent pas nos positions.
🔹 Merci pour votre confiance continue. Nous restons engagés dans une vision à long terme, progressant régulièrement vers notre objectif ultime : l'AGI.
Ce que V4 signifie pour l'écosystème IA
L'annonce du 24 avril marque un moment charnière dans l'histoire de l'IA :
- Écart de capacité open source : Désormais mesuré en mois, et non plus en générations
- Tarification : 35× moins cher que GPT-5.5 pour Flash ; 3× moins cher pour Pro
- Standards de contexte : 1 million de tokens devient le minimum attendu, et non une fonctionnalité premium
- Indépendance matérielle : Un entraînement de niveau frontier est désormais réalisable sur des puces Huawei Ascend
Pour des plateformes comme Framia.pro, qui intègrent des capacités IA de classe mondiale pour les créateurs — qu'il s'agisse d'écriture, de codage, de design ou de flux de travail créatifs complexes — l'annonce du 24 avril de DeepSeek V4 représente exactement le type d'avancée qui rend l'IA de pointe plus accessible et abordable pour tous.
Référence rapide : Résumé de l'annonce du 24 avril
| Élément | Détail |
|---|---|
| Type de sortie | Préversion |
| Modèles publiés | V4-Pro (1,6T/49B) + V4-Flash (284B/13B) |
| Licence | MIT |
| Fenêtre de contexte | 1M tokens (les deux modèles) |
| Prix Flash | 0,14 $/0,28 $ par million de tokens |
| Prix Pro | 1,74 $/3,48 $ par million de tokens |
| Poids ouverts | Oui (HuggingFace + ModelScope) |
| Compatibilité API | Formats OpenAI + Anthropic |
| Modes de raisonnement | Non-think / Think High / Think Max |
| Benchmark clé | Codeforces 3206 (record absolu) |
| Retrait des anciens modèles | 24 juillet 2026 |
| Rapport technique | Disponible dans le dépôt HuggingFace |