API de DeepSeek V4: Guía completa de integración para desarrolladores

Aprende a integrar DeepSeek V4 en tu aplicación. Cubre configuración de API, nombres de modelos, modos de razonamiento, compatibilidad con OpenAI y ejemplos de código Python.

by Framia

API de DeepSeek V4: Guía completa de integración para desarrolladores

La API de DeepSeek V4 está disponible desde el 24 de abril de 2026 y ha sido diseñada para ofrecer la experiencia más fluida posible a los desarrolladores: sin nuevos SDKs, compatibilidad total con OpenAI ChatCompletions y la API de Anthropic, y nombres de modelos que encajan en las integraciones existentes con un simple cambio de cadena de texto.

Esta guía cubre todo lo que necesitas para empezar a desarrollar con DeepSeek V4 hoy mismo.


Primeros pasos

URL base y autenticación

La API de DeepSeek utiliza la misma URL base que las versiones anteriores:

https://api.deepseek.com/v1

La autenticación se realiza mediante un token Bearer en la cabecera Authorization — tu clave API de DeepSeek existente funciona sin cambios.


Nombres de los modelos

Actualiza tu parámetro model a uno de los siguientes:

Caso de uso Nombre del modelo
Buque insignia con todas las capacidades deepseek-v4-pro
Rápido y económico deepseek-v4-flash

⚠️ Aviso de obsolescencia: deepseek-chat y deepseek-reasoner están siendo redirigidos actualmente a V4-Flash (sin razonamiento y con razonamiento, respectivamente), pero serán completamente retirados el 24 de julio de 2026 (15:59 UTC). Migra antes de esa fecha.


Integración compatible con OpenAI

Si ya usas el SDK de Python de OpenAI o el formato ChatCompletions, cambiar a DeepSeek V4 requiere únicamente modificar una línea:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_DEEPSEEK_API_KEY",
    base_url="https://api.deepseek.com/v1"
)

response = client.chat.completions.create(
    model="deepseek-v4-flash",  # o "deepseek-v4-pro"
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain the Hybrid Attention Architecture in DeepSeek V4."}
    ],
    temperature=1.0,
    top_p=1.0
)

print(response.choices[0].message.content)

DeepSeek recomienda temperature=1.0, top_p=1.0 como parámetros de muestreo por defecto para ambos modelos.


Integración compatible con Anthropic

DeepSeek V4 también soporta el formato de la API de Mensajes de Anthropic, lo que lo convierte en un reemplazo directo de Claude en bases de código compatibles con Anthropic:

import anthropic

client = anthropic.Anthropic(
    api_key="YOUR_DEEPSEEK_API_KEY",
    base_url="https://api.deepseek.com"
)

message = client.messages.create(
    model="deepseek-v4-pro",
    max_tokens=4096,
    messages=[
        {"role": "user", "content": "Write a Python function to parse nested JSON."}
    ]
)

print(message.content[0].text)

Usar los tres modos de razonamiento

DeepSeek V4 soporta tres niveles de esfuerzo de razonamiento, controlados mediante el parámetro thinking:

Modo sin razonamiento (Por defecto — Rápido)

response = client.chat.completions.create(
    model="deepseek-v4-flash",
    messages=[{"role": "user", "content": "Summarize this paragraph: ..."}],
    extra_body={"thinking": {"type": "disabled"}}
)

Modo Think High (Equilibrado)

response = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[{"role": "user", "content": "Plan a microservices migration strategy."}],
    extra_body={"thinking": {"type": "enabled", "budget_tokens": 8000}}
)

Modo Think Max (Razonamiento máximo)

Think Max utiliza un prompt de sistema especial y requiere al menos 384K tokens de espacio disponible en la ventana de contexto. Consulta la guía oficial del modo de razonamiento para obtener el prompt de sistema exacto.


Ventana de contexto

Ambos modelos soportan por defecto una ventana de contexto de 1.000.000 tokens (1M). Es la ventana de contexto por defecto más grande de cualquier modelo de pesos abiertos disponible a través de API.

Para el modo Think Max, DeepSeek recomienda establecer una ventana de contexto mínima de 384K tokens para acomodar la traza de razonamiento extendida.


Respuestas en streaming

El streaming está soportado para ambos modelos en todos los modos de razonamiento:

stream = client.chat.completions.create(
    model="deepseek-v4-flash",
    messages=[{"role": "user", "content": "Write a blog post about quantum computing."}],
    stream=True
)

for chunk in stream:
    if chunk.choices[0].delta.content:
        print(chunk.choices[0].delta.content, end="", flush=True)

Manejo del contenido de razonamiento

En los modos Think High y Think Max, el modelo devuelve un campo reasoning_content junto con el contenido de respuesta principal:

response = client.chat.completions.create(
    model="deepseek-v4-pro",
    messages=[{"role": "user", "content": "Solve this step by step: ..."}],
    extra_body={"thinking": {"type": "enabled"}}
)

thinking = response.choices[0].message.reasoning_content
answer = response.choices[0].message.content

print(f"Reasoning: {thinking[:200]}...")
print(f"Answer: {answer}")

Límites de tasa y buenas prácticas

  • Temperature: Usa temperature=1.0 según la recomendación de DeepSeek para un rendimiento óptimo
  • Reintentos: Implementa un retroceso exponencial para los errores 429 Too Many Requests
  • Streaming: Usa siempre streaming para salidas largas para evitar problemas de timeout
  • Gestión del contexto: En conversaciones de varios turnos, recorta el contexto antiguo para mantenerte dentro del presupuesto
  • Enrutamiento de modelos: Considera enviar las tareas simples a V4-Flash y las complejas a V4-Pro para optimizar costes

Integración con frameworks de agentes

DeepSeek V4 se integra de forma nativa con los principales frameworks de agentes:

  • Claude Code — usar deepseek-v4-pro como modelo subyacente
  • OpenClaw — configuración de reemplazo directo disponible
  • OpenCode — oficialmente soportado desde el lanzamiento de V4

Para plataformas de IA y herramientas creativas como Framia.pro, la compatibilidad de la API de DeepSeek V4 significa que integrar capacidades de IA de nivel frontier requiere un esfuerzo de ingeniería mínimo — simplemente actualiza el nombre del modelo y ya está listo.


Conclusión

La API de DeepSeek V4 está diseñada para una adopción sin fricciones. La compatibilidad con OpenAI y Anthropic significa que la mayoría de las integraciones existentes solo necesitan un cambio en el nombre del modelo. Combinado con los precios frontier más bajos del mercado, tres modos de razonamiento flexibles y una ventana de contexto por defecto de 1M tokens, es una de las APIs de IA más amigables para desarrolladores disponibles en 2026.