Anuncio de DeepSeek V4: Todo lo Revelado el 24 de Abril de 2026
El 24 de abril de 2026, DeepSeek lanzó uno de los anuncios de IA de código abierto más importantes del año: la versión de vista previa de DeepSeek V4, compuesta por dos modelos —V4-Pro y V4-Flash— con pesos abiertos, acceso inmediato a la API y un informe técnico completo. A continuación, un resumen exhaustivo de todo lo que se anunció.
El Anuncio
El comunicado oficial de DeepSeek describió el lanzamiento de forma sencilla pero impactante:
🚀 DeepSeek-V4 Preview está oficialmente disponible y es de código abierto. ¡Bienvenidos a la era del contexto de 1M tokens rentable!
El anuncio llegó a través de la página de documentación oficial de la API de DeepSeek y sus cuentas en redes sociales el 24 de abril de 2026, con el lanzamiento simultáneo de:
- Pesos del modelo en HuggingFace y ModelScope
- API actualizada (misma URL base, nuevos nombres de modelos)
- Informe técnico en PDF (
DeepSeek_V4.pdf) en el repositorio de HuggingFace - Interfaz de chat actualizada en chat.deepseek.com
Los Dos Modelos Anunciados
DeepSeek-V4-Pro
"Rendimiento que rivaliza con los mejores modelos de código cerrado del mundo."
- 1,6 billones de parámetros totales / 49.000 millones activos (MoE)
- Licencia MIT, pesos abiertos
- Disponible vía API como
deepseek-v4-pro - 1,74 $ de entrada / 3,48 $ de salida por millón de tokens
- Tamaño de descarga: ~865 GB
- Modo Expert en chat.deepseek.com
DeepSeek-V4-Flash
"Tu opción rápida, eficiente y económica."
- 284.000 millones de parámetros totales / 13.000 millones activos (MoE)
- Licencia MIT, pesos abiertos
- Disponible vía API como
deepseek-v4-flash - 0,14 $ de entrada / 0,28 $ de salida por millón de tokens
- Tamaño de descarga: ~160 GB
- Modo Instant en chat.deepseek.com
Las Cuatro Promesas Clave
DeepSeek articuló las características de V4 en torno a cuatro pilares:
1. DeepSeek-V4-Pro: Rendimiento de Clase Frontier
- Capacidades Agénticas Mejoradas: SOTA de código abierto en benchmarks de codificación agéntica
- Amplísimo Conocimiento del Mundo: Lidera todos los modelos abiertos actuales, solo por detrás de Gemini-3.1-Pro en conocimiento del mundo
- Razonamiento de Clase Mundial: Supera a todos los modelos abiertos actuales en Matemáticas/STEM/Codificación, rivalizando con los mejores modelos de código cerrado
2. DeepSeek-V4-Flash: Cerca del Pro a una Fracción del Coste
- Capacidades de razonamiento muy próximas a V4-Pro
- Rendimiento equiparable a V4-Pro en tareas agénticas sencillas
- Menor número de parámetros = tiempos de respuesta más rápidos + precios de API altamente competitivos
3. Innovación Estructural y Eficiencia de Contexto Ultra-Alta
- Atención novedosa: compresión por token + DSA (DeepSeek Sparse Attention / Híbrido CSA+HCA)
- Máxima Eficiencia: Contexto largo líder mundial con costes de cómputo y memoria drásticamente reducidos
- 1M como Estándar: 1 millón de tokens de contexto es ahora el valor predeterminado en todos los servicios oficiales de DeepSeek
4. Optimización Dedicada para Capacidades Agénticas
- Integrado sin problemas con los principales agentes de IA: Claude Code, OpenClaw y OpenCode
- Ya impulsa la codificación agéntica interna de DeepSeek
- V4 puede generar documentos completos (demostrado con un PDF de muestra en el anuncio)
Cambios en la API Anunciados
DeepSeek actualizó su API el mismo día:
Nuevos nombres de modelo:
deepseek-v4-pro(insignia)deepseek-v4-flash(eficiente)
Sin cambios necesarios en:
- URL base de la API (
https://api.deepseek.com/v1) - Autenticación
- Bibliotecas SDK/cliente (compatibilidad total con las API de OpenAI y Anthropic mantenida)
Retirada de modelos heredados:
⚠️
deepseek-chatydeepseek-reasonerserán retirados por completo y dejarán de ser accesibles después del 24 de julio de 2026 a las 15:59 (UTC). Actualmente enrutan hacia deepseek-v4-flash (sin razonamiento y con razonamiento, respectivamente).
Informe Técnico Publicado
El informe técnico completo — "DeepSeek-V4: Towards Highly Efficient Million-Token Context Intelligence" — se publicó simultáneamente con los pesos del modelo en el repositorio HuggingFace de V4-Pro.
El informe documenta:
- La Arquitectura de Atención Híbrida (CSA + HCA)
- Hiper-Conexiones con Restricción de Variedad (mHC)
- Adopción del optimizador Muon
- Escala de pre-entrenamiento con más de 32 billones de tokens
- Pipeline de post-entrenamiento de dos etapas (especialización de expertos + destilación on-policy)
- Evaluación completa de benchmarks en conocimiento, razonamiento, codificación, contexto largo y tareas agénticas
Contexto del Anuncio
El lanzamiento del 24 de abril llegó semanas después de:
- GPT-5.5 de OpenAI — nuevo modelo frontier de OpenAI
- Claude Opus 4.7 de Anthropic — el último buque insignia de Anthropic
DeepSeek posicionó V4 como competidor directo de estos modelos a una fracción de su precio. Según el análisis de DataCamp: "DeepSeek afirma quedarse solo de 3 a 6 meses por detrás de los modelos de código cerrado más avanzados, con un coste que representa una fracción del precio de competidores como OpenAI y Anthropic."
Reacción de la Comunidad IA
La reacción de la comunidad en Reddit (r/DeepSeek, r/singularity), HuggingFace y canales sociales de desarrolladores fue muy positiva, con temas recurrentes:
- Codeforces 3206: Señalado inmediatamente como la puntuación Codeforces más alta jamás alcanzada por una IA — un hito en la programación competitiva
- Precio de Flash: 0,14 $/M tokens de entrada ampliamente destacado como uno de los tokens de API de clase frontier más baratos disponibles
- Contexto 1M como predeterminado: Señalado como un gran hito para la industria
- Licencia MIT: Celebrada por ser más permisiva que la licencia de Llama 3, permitiendo el máximo uso comercial
- Descargas en HuggingFace: V4-Pro alcanzó más de 123.000 descargas en los días posteriores al lanzamiento
El Mensaje de DeepSeek sobre Confianza y Largo Plazo
El anuncio se cerró con un mensaje característico de DeepSeek:
🔹 Ante la reciente atención recibida, un breve recordatorio: confíe únicamente en nuestras cuentas oficiales para las noticias sobre DeepSeek. Las declaraciones de otros canales no reflejan nuestras opiniones.
🔹 Gracias por su continua confianza. Seguimos comprometidos con el largo plazo, avanzando firmemente hacia nuestro objetivo último: la AGI.
Qué Significa V4 para el Ecosistema de la IA
El anuncio del 24 de abril marca un momento decisivo en la historia de la IA:
- Brecha de capacidad open source: Ahora se mide en meses, no en generaciones
- Precios: 35× más barato que GPT-5.5 para Flash; 3× más barato para Pro
- Estándares de contexto: 1 millón de tokens se convierte en el mínimo esperado, no en una función premium
- Independencia del hardware: El entrenamiento de nivel frontier es ya alcanzable con chips Huawei Ascend
Para plataformas como Framia.pro que integran capacidades de IA de primer nivel para creadores —ya sea para escritura, programación, diseño o flujos de trabajo creativos complejos— el anuncio de DeepSeek V4 del 24 de abril representa exactamente el tipo de avance que hace que la IA de vanguardia sea más accesible y asequible para todos.
Referencia Rápida: Resumen del Anuncio del 24 de Abril
| Elemento | Detalle |
|---|---|
| Tipo de lanzamiento | Vista previa |
| Modelos publicados | V4-Pro (1,6T/49B) + V4-Flash (284B/13B) |
| Licencia | MIT |
| Ventana de contexto | 1M tokens (ambos modelos) |
| Precio Flash | 0,14 $/0,28 $ por millón de tokens |
| Precio Pro | 1,74 $/3,48 $ por millón de tokens |
| Pesos abiertos | Sí (HuggingFace + ModelScope) |
| Compatibilidad API | Formatos OpenAI + Anthropic |
| Modos de razonamiento | Non-think / Think High / Think Max |
| Benchmark clave | Codeforces 3206 (el más alto jamás registrado) |
| Retirada de modelos heredados | 24 de julio de 2026 |
| Informe técnico | Disponible en el repositorio de HuggingFace |