Annonce DeepSeek V4 : Tout ce qui a été révélé le 24 avril 2026

Résumé complet de l'annonce DeepSeek V4 du 24 avril 2026 : spécifications V4-Pro et V4-Flash, tarifs, changements API, points clés du rapport technique et réactions de la communauté.

by Framia

Annonce DeepSeek V4 : Tout ce qui a été révélé le 24 avril 2026

Le 24 avril 2026, DeepSeek a lâché l'une des annonces open source les plus importantes de l'année dans le domaine de l'IA : la sortie en préversion de DeepSeek V4, composée de deux modèles — V4-Pro et V4-Flash — avec des poids ouverts, un accès API immédiat et un rapport technique complet. Voici un résumé exhaustif de tout ce qui a été annoncé.


L'annonce

Le communiqué officiel de DeepSeek décrivait le lancement de façon sobre mais percutante :

🚀 DeepSeek-V4 Preview est officiellement en ligne et open source ! Bienvenue dans l'ère du contexte 1M tokens économique.

L'annonce a été faite le 24 avril 2026 via la page de documentation officielle de l'API de DeepSeek et ses comptes sur les réseaux sociaux, avec la publication simultanée de :

  • Les poids du modèle sur HuggingFace et ModelScope
  • L'API mise à jour (même URL de base, nouveaux noms de modèles)
  • Le rapport technique en PDF (DeepSeek_V4.pdf) dans le dépôt HuggingFace
  • L'interface de chat mise à jour sur chat.deepseek.com

Les deux modèles annoncés

DeepSeek-V4-Pro

« Des performances rivalisant avec les meilleurs modèles closed source au monde. »

  • 1 600 milliards de paramètres totaux / 49 milliards actifs (MoE)
  • Licence MIT, poids ouverts
  • Disponible via l'API sous le nom deepseek-v4-pro
  • 1,74 $ en entrée / 3,48 $ en sortie par million de tokens
  • Taille du téléchargement : ~865 Go
  • Mode Expert sur chat.deepseek.com

DeepSeek-V4-Flash

« Votre choix rapide, efficace et économique. »

  • 284 milliards de paramètres totaux / 13 milliards actifs (MoE)
  • Licence MIT, poids ouverts
  • Disponible via l'API sous le nom deepseek-v4-flash
  • 0,14 $ en entrée / 0,28 $ en sortie par million de tokens
  • Taille du téléchargement : ~160 Go
  • Mode Instant sur chat.deepseek.com

Les quatre grandes promesses

DeepSeek a structuré son annonce de V4 autour de quatre piliers :

1. DeepSeek-V4-Pro : Performances de pointe

  • Capacités agentiques renforcées : SOTA open source sur les benchmarks de codage agentique
  • Connaissance encyclopédique du monde : En tête de tous les modèles open source actuels, dépassé seulement par Gemini-3.1-Pro en connaissance du monde
  • Raisonnement de classe mondiale : Surpasse tous les modèles open source en maths/sciences/codage, rivalisant avec les meilleurs modèles closed source

2. DeepSeek-V4-Flash : Proche du Pro, à une fraction du coût

  • Des capacités de raisonnement proches de V4-Pro
  • Performances équivalentes à V4-Pro sur les tâches agentiques simples
  • Taille de paramètres réduite = temps de réponse plus rapides + tarification API très compétitive

3. Innovation structurelle et efficacité de contexte ultra-élevée

  • Attention inédite : compression par token + DSA (DeepSeek Sparse Attention / hybride CSA+HCA)
  • Efficacité maximale : contexte long de niveau mondial avec des coûts de calcul et mémoire drastiquement réduits
  • 1M en standard : Un contexte d'1 million de tokens devient la valeur par défaut pour tous les services officiels DeepSeek

4. Optimisation dédiée aux capacités agentiques

  • Intégration transparente avec les principaux agents IA : Claude Code, OpenClaw et OpenCode
  • Propulse déjà le codage agentique interne de DeepSeek
  • V4 peut générer des documents complets (démontré avec un exemple de PDF lors de l'annonce)

Modifications de l'API annoncées

DeepSeek a mis à jour son API le même jour :

Nouveaux noms de modèles :

  • deepseek-v4-pro (phare)
  • deepseek-v4-flash (économique)

Aucun changement requis pour :

  • L'URL de base de l'API (https://api.deepseek.com/v1)
  • L'authentification
  • Les SDK/bibliothèques clientes (compatibilité totale avec les API OpenAI et Anthropic maintenue)

Retraite des modèles hérités :

⚠️ deepseek-chat et deepseek-reasoner seront définitivement retirés et inaccessibles après le 24 juillet 2026 à 15h59 (UTC). Ils redirigent actuellement vers deepseek-v4-flash (respectivement en mode non-réflexif et réflexif).


Rapport technique publié

Le rapport technique complet — « DeepSeek-V4 : Towards Highly Efficient Million-Token Context Intelligence » — a été publié simultanément avec les poids du modèle dans le dépôt HuggingFace V4-Pro.

Le rapport documente :

  • L'architecture d'attention hybride (CSA + HCA)
  • Les Hyper-Connexions à contraintes de variété (mHC)
  • L'adoption de l'optimiseur Muon
  • Une échelle de pré-entraînement dépassant 32 000 milliards de tokens
  • Un pipeline de post-entraînement en deux étapes (spécialisation d'experts + distillation on-policy)
  • Une évaluation complète sur des benchmarks de connaissance, raisonnement, codage, contexte long et tâches agentiques

Contexte de l'annonce

La sortie du 24 avril est intervenue quelques semaines après :

  • GPT-5.5 d'OpenAI — nouveau modèle frontier d'OpenAI
  • Claude Opus 4.7 d'Anthropic — dernier vaisseau amiral d'Anthropic

DeepSeek a positionné V4 comme un concurrent direct de ces modèles, à une fraction de leur prix. Selon l'analyse de DataCamp : « DeepSeek affirme ne prendre que 3 à 6 mois de retard sur les modèles closed source les plus avancés, tout en coûtant une fraction du prix de concurrents comme OpenAI et Anthropic. »


Réactions de la communauté IA

Les réactions sur Reddit (r/DeepSeek, r/singularity), HuggingFace et les canaux de développeurs ont été très positives, avec des thèmes récurrents :

  • Codeforces 3206 : Immédiatement salué comme la plus haute note Codeforces jamais atteinte par une IA — un jalon historique pour la programmation compétitive
  • Prix Flash : 0,14 $/M tokens en entrée largement cité comme l'un des tokens API de classe frontier les moins chers disponibles
  • 1M de contexte par défaut : Mis en avant comme un jalon majeur pour l'industrie
  • Licence MIT : Saluée comme plus permissive que la licence Llama 3, permettant une utilisation commerciale maximale
  • Téléchargements HuggingFace : V4-Pro a atteint plus de 123 000 téléchargements en quelques jours après sa sortie

Message de DeepSeek sur la confiance et le long-termisme

L'annonce s'est conclue par un message caractéristique de DeepSeek :

🔹 Face à l'attention récente, un rappel rapide : veuillez vous fier uniquement à nos comptes officiels pour les nouvelles concernant DeepSeek. Les déclarations provenant d'autres canaux ne reflètent pas nos positions.

🔹 Merci pour votre confiance continue. Nous restons engagés dans une vision à long terme, progressant régulièrement vers notre objectif ultime : l'AGI.


Ce que V4 signifie pour l'écosystème IA

L'annonce du 24 avril marque un moment charnière dans l'histoire de l'IA :

  • Écart de capacité open source : Désormais mesuré en mois, et non plus en générations
  • Tarification : 35× moins cher que GPT-5.5 pour Flash ; 3× moins cher pour Pro
  • Standards de contexte : 1 million de tokens devient le minimum attendu, et non une fonctionnalité premium
  • Indépendance matérielle : Un entraînement de niveau frontier est désormais réalisable sur des puces Huawei Ascend

Pour des plateformes comme Framia.pro, qui intègrent des capacités IA de classe mondiale pour les créateurs — qu'il s'agisse d'écriture, de codage, de design ou de flux de travail créatifs complexes — l'annonce du 24 avril de DeepSeek V4 représente exactement le type d'avancée qui rend l'IA de pointe plus accessible et abordable pour tous.


Référence rapide : Résumé de l'annonce du 24 avril

Élément Détail
Type de sortie Préversion
Modèles publiés V4-Pro (1,6T/49B) + V4-Flash (284B/13B)
Licence MIT
Fenêtre de contexte 1M tokens (les deux modèles)
Prix Flash 0,14 $/0,28 $ par million de tokens
Prix Pro 1,74 $/3,48 $ par million de tokens
Poids ouverts Oui (HuggingFace + ModelScope)
Compatibilité API Formats OpenAI + Anthropic
Modes de raisonnement Non-think / Think High / Think Max
Benchmark clé Codeforces 3206 (record absolu)
Retrait des anciens modèles 24 juillet 2026
Rapport technique Disponible dans le dépôt HuggingFace