DeepSeek V4 Ankündigung: Alles, was am 24. April 2026 enthüllt wurde
Am 24. April 2026 veröffentlichte DeepSeek eine der bedeutendsten Open-Source-KI-Ankündigungen des Jahres: die Preview-Version von DeepSeek V4, bestehend aus zwei Modellen — V4-Pro und V4-Flash — mit offenen Gewichten, sofortigem API-Zugang und einem vollständigen technischen Bericht. Hier ist eine umfassende Zusammenfassung aller angekündigten Inhalte.
Die Ankündigung
DeepSeeks offizielle Ankündigung beschrieb den Launch knapp, aber wirkungsvoll:
🚀 DeepSeek-V4 Preview ist offiziell live & open-source! Willkommen im Zeitalter des kosteneffizienten 1M-Kontextfensters.
Die Ankündigung erfolgte am 24. April 2026 über DeepSeeks offizielle API-Dokumentationsseite und Social-Media-Kanäle, mit gleichzeitiger Veröffentlichung von:
- Modellgewichten auf HuggingFace und ModelScope
- Aktualisiertem API (gleiche Basis-URL, neue Modellnamen)
- Technischem Bericht als PDF (
DeepSeek_V4.pdf) im HuggingFace-Repository - Aktualisiertem Chat-Interface auf chat.deepseek.com
Die zwei angekündigten Modelle
DeepSeek-V4-Pro
"Leistung, die mit den weltbesten Closed-Source-Modellen mithalten kann."
- 1,6 Billionen Gesamtparameter / 49 Mrd. aktiv (MoE)
- MIT-Lizenz, offene Gewichte
- Über die API als
deepseek-v4-proverfügbar - $1,74 Eingabe / $3,48 Ausgabe pro 1 Mio. Token
- Download-Größe: ~865 GB
- Expert-Modus auf chat.deepseek.com
DeepSeek-V4-Flash
"Ihre schnelle, effiziente und wirtschaftliche Wahl."
- 284 Mrd. Gesamtparameter / 13 Mrd. aktiv (MoE)
- MIT-Lizenz, offene Gewichte
- Über die API als
deepseek-v4-flashverfügbar - $0,14 Eingabe / $0,28 Ausgabe pro 1 Mio. Token
- Download-Größe: ~160 GB
- Instant-Modus auf chat.deepseek.com
Die vier zentralen Versprechen
DeepSeek strukturierte die Ankündigung von V4 rund um vier Säulen:
1. DeepSeek-V4-Pro: Frontier-Klasse Leistung
- Erweiterte Agentenfähigkeiten: Open-Source-SOTA in Agentic-Coding-Benchmarks
- Umfangreiches Weltwissen: Führt alle aktuellen offenen Modelle an, nur Gemini-3.1-Pro übertrifft es im Weltwissen
- Erstklassiges Schlussfolgern: Übertrifft alle aktuellen offenen Modelle in Mathematik/MINT/Coding und rivalisiert mit Top-Closed-Source-Modellen
2. DeepSeek-V4-Flash: Nahezu Pro-Niveau zum Bruchteil des Preises
- Schlussfolgernde Fähigkeiten nahe an V4-Pro
- Bei einfachen Agenten-Aufgaben auf Augenhöhe mit V4-Pro
- Kleinere Parametergröße = schnellere Antwortzeiten + hochgradig kosteneffiziente API-Preise
3. Strukturelle Innovation und ultra-hohe Kontexteffizienz
- Neuartiger Attention-Mechanismus: Token-weise Komprimierung + DSA (DeepSeek Sparse Attention / CSA+HCA-Hybrid)
- Höchste Effizienz: Weltweit führende Long-Context-Verarbeitung bei drastisch reduzierten Rechen- und Speicherkosten
- 1M Standard: 1 Mio. Kontext ist nun der Standard in allen offiziellen DeepSeek-Diensten
4. Dedizierte Optimierung für Agenten-Fähigkeiten
- Nahtlose Integration mit führenden KI-Agenten: Claude Code, OpenClaw und OpenCode
- Treibt bereits DeepSeeks interne agentische Programmierung an
- V4 kann vollständige Dokumente generieren (im Rahmen der Ankündigung mit einem Beispiel-PDF demonstriert)
Angekündigte API-Änderungen
DeepSeek aktualisierte seine API am selben Tag:
Neue Modellnamen:
deepseek-v4-pro(Flagship)deepseek-v4-flash(effizient)
Keine Änderungen erforderlich bei:
- API-Basis-URL (
https://api.deepseek.com/v1) - Authentifizierung
- SDK/Client-Bibliotheken (vollständige OpenAI- und Anthropic-API-Kompatibilität bleibt erhalten)
Abkündigung älterer Modelle:
⚠️
deepseek-chatunddeepseek-reasonerwerden nach dem 24. Juli 2026, 15:59 Uhr (UTC) vollständig eingestellt und nicht mehr zugänglich sein. Aktuell werden sie auf deepseek-v4-flash weitergeleitet (jeweils ohne Denkmodus und mit Denkmodus).
Veröffentlichter technischer Bericht
Der vollständige technische Bericht — „DeepSeek-V4: Towards Highly Efficient Million-Token Context Intelligence" — wurde gleichzeitig mit den Modellgewichten im V4-Pro HuggingFace-Repository veröffentlicht.
Der Bericht dokumentiert:
- Die Hybrid-Attention-Architektur (CSA + HCA)
- Mannigfaltigkeits-beschränkte Hyper-Verbindungen (mHC)
- Einführung des Muon-Optimizers
- Pre-Training-Skala mit 32 Billionen+ Token
- Zweistufige Post-Training-Pipeline (Expertenspezialisierung + On-Policy-Destillation)
- Vollständige Benchmark-Auswertung in Wissen, Schlussfolgerung, Coding, Long-Context und agentischen Aufgaben
Kontext zur Ankündigung
Das Release vom 24. April erfolgte wenige Wochen nach:
- OpenAIs GPT-5.5 — neues Frontier-Modell von OpenAI
- Anthropics Claude Opus 4.7 — Anthropics jüngstes Flaggschiff
DeepSeek positionierte V4 als direkten Konkurrenten zu diesen Modellen — zu einem Bruchteil des Preises. Laut DataCamps Analyse: „DeepSeek behauptet, nur 3 bis 6 Monate hinter den modernsten Closed-Source-Modellen zu liegen, dabei nur einen Bruchteil der Kosten von Wettbewerbern wie OpenAI und Anthropic zu verursachen."
Reaktion der KI-Community
Die Community-Reaktionen auf Reddit (r/DeepSeek, r/singularity), HuggingFace und in Entwickler-Kanälen waren überwiegend positiv, mit wiederkehrenden Themen:
- Codeforces 3206: Sofort als höchste je erreichte KI-Codeforces-Bewertung anerkannt — ein Meilenstein für das Competitive Programming
- Flash-Preis: $0,14/Mio. Eingabe-Token als eines der günstigsten verfügbaren Frontier-API-Tokens breit diskutiert
- 1M Kontext als Standard: Als wichtiger Industrie-Meilenstein hervorgehoben
- MIT-Lizenz: Als freizügiger als Llama 3-Lizenz gefeiert, ermöglicht maximale kommerzielle Nutzung
- HuggingFace-Downloads: V4-Pro erreichte innerhalb weniger Tage über 123.000 Downloads
DeepSeeks Botschaft zu Vertrauen und Langfristdenken
Die Ankündigung schloss mit einer charakteristischen Nachricht von DeepSeek:
🔹 Angesichts der aktuellen Aufmerksamkeit ein kurzer Hinweis: Verlassen Sie sich für DeepSeek-Neuigkeiten bitte ausschließlich auf unsere offiziellen Accounts. Aussagen aus anderen Kanälen spiegeln nicht unsere Ansichten wider.
🔹 Vielen Dank für Ihr fortgesetztes Vertrauen. Wir bleiben dem Langfristdenken verpflichtet und schreiten stetig auf unser letztendliches Ziel — AGI — zu.
Was V4 für das KI-Ökosystem bedeutet
Die Ankündigung vom 24. April markiert einen Wendepunkt in der KI-Geschichte:
- Open-Source-Fähigkeitslücke: Jetzt in Monaten gemessen, nicht mehr in Generationen
- Preise: 35× günstiger als GPT-5.5 für Flash; 3× günstiger für Pro
- Kontext-Standards: 1 Mio. Token wird zum erwarteten Minimum, nicht mehr zu einem Premium-Feature
- Hardware-Unabhängigkeit: Frontier-Training auf Huawei Ascend-Chips erreichbar
Für Plattformen wie Framia.pro, die erstklassige KI-Funktionen für Kreative integrieren — ob für Schreiben, Programmieren, Design oder komplexe kreative Workflows — steht DeepSeek V4s Ankündigung vom 24. April für genau den Fortschritt, der Frontier-KI für alle zugänglicher und erschwinglicher macht.
Schnellübersicht: Zusammenfassung der Ankündigung vom 24. April
| Element | Detail |
|---|---|
| Veröffentlichungstyp | Preview |
| Veröffentlichte Modelle | V4-Pro (1,6T/49B) + V4-Flash (284B/13B) |
| Lizenz | MIT |
| Kontextfenster | 1 Mio. Token (beide Modelle) |
| Flash-Preis | $0,14/$0,28 pro 1 Mio. Token |
| Pro-Preis | $1,74/$3,48 pro 1 Mio. Token |
| Offene Gewichte | Ja (HuggingFace + ModelScope) |
| API-Kompatibilität | OpenAI + Anthropic Formate |
| Denkmodi | Non-think / Think High / Think Max |
| Haupt-Benchmark | Codeforces 3206 (höchste je erreicht) |
| Legacy-Abkündigung | 24. Juli 2026 |
| Technischer Bericht | Im HuggingFace-Repository verfügbar |