DeepSeek V4 Ankündigung: Alles, was am 24. April 2026 enthüllt wurde

Alles zur DeepSeek V4-Ankündigung vom 24. April 2026: V4-Pro und V4-Flash Spezifikationen, Preise, API-Änderungen, technischer Bericht und Community-Reaktionen im Überblick.

by Framia

DeepSeek V4 Ankündigung: Alles, was am 24. April 2026 enthüllt wurde

Am 24. April 2026 veröffentlichte DeepSeek eine der bedeutendsten Open-Source-KI-Ankündigungen des Jahres: die Preview-Version von DeepSeek V4, bestehend aus zwei Modellen — V4-Pro und V4-Flash — mit offenen Gewichten, sofortigem API-Zugang und einem vollständigen technischen Bericht. Hier ist eine umfassende Zusammenfassung aller angekündigten Inhalte.


Die Ankündigung

DeepSeeks offizielle Ankündigung beschrieb den Launch knapp, aber wirkungsvoll:

🚀 DeepSeek-V4 Preview ist offiziell live & open-source! Willkommen im Zeitalter des kosteneffizienten 1M-Kontextfensters.

Die Ankündigung erfolgte am 24. April 2026 über DeepSeeks offizielle API-Dokumentationsseite und Social-Media-Kanäle, mit gleichzeitiger Veröffentlichung von:

  • Modellgewichten auf HuggingFace und ModelScope
  • Aktualisiertem API (gleiche Basis-URL, neue Modellnamen)
  • Technischem Bericht als PDF (DeepSeek_V4.pdf) im HuggingFace-Repository
  • Aktualisiertem Chat-Interface auf chat.deepseek.com

Die zwei angekündigten Modelle

DeepSeek-V4-Pro

"Leistung, die mit den weltbesten Closed-Source-Modellen mithalten kann."

  • 1,6 Billionen Gesamtparameter / 49 Mrd. aktiv (MoE)
  • MIT-Lizenz, offene Gewichte
  • Über die API als deepseek-v4-pro verfügbar
  • $1,74 Eingabe / $3,48 Ausgabe pro 1 Mio. Token
  • Download-Größe: ~865 GB
  • Expert-Modus auf chat.deepseek.com

DeepSeek-V4-Flash

"Ihre schnelle, effiziente und wirtschaftliche Wahl."

  • 284 Mrd. Gesamtparameter / 13 Mrd. aktiv (MoE)
  • MIT-Lizenz, offene Gewichte
  • Über die API als deepseek-v4-flash verfügbar
  • $0,14 Eingabe / $0,28 Ausgabe pro 1 Mio. Token
  • Download-Größe: ~160 GB
  • Instant-Modus auf chat.deepseek.com

Die vier zentralen Versprechen

DeepSeek strukturierte die Ankündigung von V4 rund um vier Säulen:

1. DeepSeek-V4-Pro: Frontier-Klasse Leistung

  • Erweiterte Agentenfähigkeiten: Open-Source-SOTA in Agentic-Coding-Benchmarks
  • Umfangreiches Weltwissen: Führt alle aktuellen offenen Modelle an, nur Gemini-3.1-Pro übertrifft es im Weltwissen
  • Erstklassiges Schlussfolgern: Übertrifft alle aktuellen offenen Modelle in Mathematik/MINT/Coding und rivalisiert mit Top-Closed-Source-Modellen

2. DeepSeek-V4-Flash: Nahezu Pro-Niveau zum Bruchteil des Preises

  • Schlussfolgernde Fähigkeiten nahe an V4-Pro
  • Bei einfachen Agenten-Aufgaben auf Augenhöhe mit V4-Pro
  • Kleinere Parametergröße = schnellere Antwortzeiten + hochgradig kosteneffiziente API-Preise

3. Strukturelle Innovation und ultra-hohe Kontexteffizienz

  • Neuartiger Attention-Mechanismus: Token-weise Komprimierung + DSA (DeepSeek Sparse Attention / CSA+HCA-Hybrid)
  • Höchste Effizienz: Weltweit führende Long-Context-Verarbeitung bei drastisch reduzierten Rechen- und Speicherkosten
  • 1M Standard: 1 Mio. Kontext ist nun der Standard in allen offiziellen DeepSeek-Diensten

4. Dedizierte Optimierung für Agenten-Fähigkeiten

  • Nahtlose Integration mit führenden KI-Agenten: Claude Code, OpenClaw und OpenCode
  • Treibt bereits DeepSeeks interne agentische Programmierung an
  • V4 kann vollständige Dokumente generieren (im Rahmen der Ankündigung mit einem Beispiel-PDF demonstriert)

Angekündigte API-Änderungen

DeepSeek aktualisierte seine API am selben Tag:

Neue Modellnamen:

  • deepseek-v4-pro (Flagship)
  • deepseek-v4-flash (effizient)

Keine Änderungen erforderlich bei:

  • API-Basis-URL (https://api.deepseek.com/v1)
  • Authentifizierung
  • SDK/Client-Bibliotheken (vollständige OpenAI- und Anthropic-API-Kompatibilität bleibt erhalten)

Abkündigung älterer Modelle:

⚠️ deepseek-chat und deepseek-reasoner werden nach dem 24. Juli 2026, 15:59 Uhr (UTC) vollständig eingestellt und nicht mehr zugänglich sein. Aktuell werden sie auf deepseek-v4-flash weitergeleitet (jeweils ohne Denkmodus und mit Denkmodus).


Veröffentlichter technischer Bericht

Der vollständige technische Bericht — „DeepSeek-V4: Towards Highly Efficient Million-Token Context Intelligence" — wurde gleichzeitig mit den Modellgewichten im V4-Pro HuggingFace-Repository veröffentlicht.

Der Bericht dokumentiert:

  • Die Hybrid-Attention-Architektur (CSA + HCA)
  • Mannigfaltigkeits-beschränkte Hyper-Verbindungen (mHC)
  • Einführung des Muon-Optimizers
  • Pre-Training-Skala mit 32 Billionen+ Token
  • Zweistufige Post-Training-Pipeline (Expertenspezialisierung + On-Policy-Destillation)
  • Vollständige Benchmark-Auswertung in Wissen, Schlussfolgerung, Coding, Long-Context und agentischen Aufgaben

Kontext zur Ankündigung

Das Release vom 24. April erfolgte wenige Wochen nach:

  • OpenAIs GPT-5.5 — neues Frontier-Modell von OpenAI
  • Anthropics Claude Opus 4.7 — Anthropics jüngstes Flaggschiff

DeepSeek positionierte V4 als direkten Konkurrenten zu diesen Modellen — zu einem Bruchteil des Preises. Laut DataCamps Analyse: „DeepSeek behauptet, nur 3 bis 6 Monate hinter den modernsten Closed-Source-Modellen zu liegen, dabei nur einen Bruchteil der Kosten von Wettbewerbern wie OpenAI und Anthropic zu verursachen."


Reaktion der KI-Community

Die Community-Reaktionen auf Reddit (r/DeepSeek, r/singularity), HuggingFace und in Entwickler-Kanälen waren überwiegend positiv, mit wiederkehrenden Themen:

  • Codeforces 3206: Sofort als höchste je erreichte KI-Codeforces-Bewertung anerkannt — ein Meilenstein für das Competitive Programming
  • Flash-Preis: $0,14/Mio. Eingabe-Token als eines der günstigsten verfügbaren Frontier-API-Tokens breit diskutiert
  • 1M Kontext als Standard: Als wichtiger Industrie-Meilenstein hervorgehoben
  • MIT-Lizenz: Als freizügiger als Llama 3-Lizenz gefeiert, ermöglicht maximale kommerzielle Nutzung
  • HuggingFace-Downloads: V4-Pro erreichte innerhalb weniger Tage über 123.000 Downloads

DeepSeeks Botschaft zu Vertrauen und Langfristdenken

Die Ankündigung schloss mit einer charakteristischen Nachricht von DeepSeek:

🔹 Angesichts der aktuellen Aufmerksamkeit ein kurzer Hinweis: Verlassen Sie sich für DeepSeek-Neuigkeiten bitte ausschließlich auf unsere offiziellen Accounts. Aussagen aus anderen Kanälen spiegeln nicht unsere Ansichten wider.

🔹 Vielen Dank für Ihr fortgesetztes Vertrauen. Wir bleiben dem Langfristdenken verpflichtet und schreiten stetig auf unser letztendliches Ziel — AGI — zu.


Was V4 für das KI-Ökosystem bedeutet

Die Ankündigung vom 24. April markiert einen Wendepunkt in der KI-Geschichte:

  • Open-Source-Fähigkeitslücke: Jetzt in Monaten gemessen, nicht mehr in Generationen
  • Preise: 35× günstiger als GPT-5.5 für Flash; 3× günstiger für Pro
  • Kontext-Standards: 1 Mio. Token wird zum erwarteten Minimum, nicht mehr zu einem Premium-Feature
  • Hardware-Unabhängigkeit: Frontier-Training auf Huawei Ascend-Chips erreichbar

Für Plattformen wie Framia.pro, die erstklassige KI-Funktionen für Kreative integrieren — ob für Schreiben, Programmieren, Design oder komplexe kreative Workflows — steht DeepSeek V4s Ankündigung vom 24. April für genau den Fortschritt, der Frontier-KI für alle zugänglicher und erschwinglicher macht.


Schnellübersicht: Zusammenfassung der Ankündigung vom 24. April

Element Detail
Veröffentlichungstyp Preview
Veröffentlichte Modelle V4-Pro (1,6T/49B) + V4-Flash (284B/13B)
Lizenz MIT
Kontextfenster 1 Mio. Token (beide Modelle)
Flash-Preis $0,14/$0,28 pro 1 Mio. Token
Pro-Preis $1,74/$3,48 pro 1 Mio. Token
Offene Gewichte Ja (HuggingFace + ModelScope)
API-Kompatibilität OpenAI + Anthropic Formate
Denkmodi Non-think / Think High / Think Max
Haupt-Benchmark Codeforces 3206 (höchste je erreicht)
Legacy-Abkündigung 24. Juli 2026
Technischer Bericht Im HuggingFace-Repository verfügbar