DeepSeek V4: Hohe Open Source-Leistung zu ziemlich kleinen Preisen
DeepSeek hat 2025 Weltberühmtheit erlangt und eine Schockwelle vor allem durch die US-dominierte KI-Branche gejagt. Damals wurde das kosteneffiziente Open-Source-Modell V3 veröffentlicht, das den US-Modellen ebenbürtig war und gleichzeitig viel günstiger. Seither hat sich gerade in China viel getan, und DeepSeek ist schon länger nicht mehr die Nummer 1 bei Open Source LLMs; Startups wie Z.ai (GLM-5) oder Moonshot AI (Kimi K2.6) zogen vorbei.
Jetzt aber kämpft sich DeepSeek mit der Veröffentlichung von V4 zurück an die Front. Die beiden Modelle DeepSeek-V4-Pro und DeepSeek-V4-Flash sind ab sofort verfügbar und werden gleichzeitig als Open-Source-Modelle veröffentlicht. Besonders bemerkenswert ist die Kombination aus hoher Leistung und deutlich niedrigeren Kosten im Vergleich zu den führenden amerikanischen Konkurrenzmodellen. Aktuell liegt V4-Pro bei Arena.ai in Sachen Open Source knapp hinter GLM-5, im Gesamt-Ranking aller LLMs schafft es aber nur Platz 20.
Zwei Modelle für unterschiedliche Anforderungen
Die V4-Serie besteht aus zwei Varianten, die sich in Größe und Leistungsprofil unterscheiden. Beide Modelle unterstützen einen Kontextfenster von einer Million Token und sind als Mixture-of-Experts-Architektur aufgebaut. Sie unterstützen sowohl einen normalen Modus als auch einen Denkmodus, bei dem die Denkintensität über den Parameter reasoning_effort eingestellt werden kann.
- DeepSeek-V4-Pro umfasst 1,6 Billionen Parameter insgesamt, davon 49 Milliarden aktiv. Das Modell erzielt nach Angaben von DeepSeek Leistungen, die mit führenden geschlossenen Modellen vergleichbar sind, insbesondere in den Bereichen Mathematik, STEM und Programmierwettbewerbe.
- DeepSeek-V4-Flash kommt auf 284 Milliarden Parameter insgesamt, davon 13 Milliarden aktiv. Es ist schneller und kostengünstiger, zeigt bei einfachen Aufgaben eine ähnliche Leistung wie das Pro-Modell, bleibt aber bei komplexen Aufgaben dahinter zurück.
Leistung auf Augenhöhe mit der Weltspitze
DeepSeek-V4-Pro übertrifft nach eigenen Angaben alle derzeit öffentlich bewerteten Open-Source-Modelle in den Bereichen Mathematik, STEM und Programmierwettbewerbe. Beim Weltwissen liegt das Modell knapp hinter dem führenden geschlossenen Modell Gemini-Pro-3.1, übertrifft aber alle anderen Open-Source-Alternativen deutlich.
Besonders hervorgehoben werden die verbesserten Agentenfähigkeiten. In internen Tests wurde die Nutzererfahrung als besser als bei Claude Sonnet 4.5 bewertet, und die Ausgabequalität soll nahe an Opus 4.6 im normalen Modus heranreichen. V4-Pro ist damit nach Angaben von DeepSeek bereits das interne Standard-Modell für Coding-Aufgaben im Unternehmen.
Technisch setzt DeepSeek-V4 auf einen neuartigen Aufmerksamkeitsmechanismus, der Token komprimiert und mit dem hauseigenen DeepSeek Sparse Attention kombiniert wird. Dies ermöglicht den langen Kontext bei gleichzeitig deutlich reduziertem Rechen- und Speicheraufwand im Vergleich zu herkömmlichen Methoden.
Der entscheidende Vorteil: Die Preise
Was DeepSeek V4 besonders interessant macht, ist die aggressive Preisgestaltung. Beide Modelle unterbieten ihre direkten Konkurrenten erheblich. DeepSeek-V4-Flash ist das günstigste Modell in seiner Klasse und schlägt sogar OpenAIs GPT-5.4 Nano. DeepSeek-V4-Pro wiederum ist das preiswerteste der leistungsstarken Frontier-Modelle und kostet im Vergleich zu Claude Sonnet 4.6 oder GPT-5.4 nur einen Bruchteil.
| Modell | Input ($/Mio. Token) | Output ($/Mio. Token) |
|---|---|---|
| DeepSeek V4 Flash | $0,14 | $0,28 |
| GPT-5.4 Nano | $0,20 | $1,25 |
| Gemini 3.1 Flash-Lite | $0,25 | $1,50 |
| Gemini 3 Flash Preview | $0,50 | $3,00 |
| GPT-5.4 Mini | $0,75 | $4,50 |
| Claude Haiku 4.5 | $1,00 | $5,00 |
| DeepSeek V4 Pro | $1,74 | $3,48 |
| Gemini 3.1 Pro | $2,00 | $12,00 |
| GPT-5.4 | $2,50 | $15,00 |
| Claude Sonnet 4.6 | $3,00 | $15,00 |
| Claude Opus 4.7 | $5,00 | $25,00 |
| GPT-5.5 | $5,00 | $30,00 |
Die Preisunterschiede sind erheblich. Wer DeepSeek-V4-Pro statt Claude Sonnet 4.6 nutzt, zahlt beim Output mehr als viermal weniger. Im Vergleich zu GPT-5.5 oder Claude Opus 4.7 fällt der Unterschied noch drastischer aus. Ermöglicht wird dies laut DeepSeek durch die hohe Effizienz der neuen Architektur, die besonders bei langen Kontexten den Rechen- und Speicheraufwand deutlich reduziert.
Verfügbarkeit und API-Zugang
Beide Modelle sind über die offizielle Website chat.deepseek.com sowie über die DeepSeek-App zugänglich. Die API unterstützt die Schnittstellen von OpenAI ChatCompletions und Anthropic. Für den Zugriff auf die neuen Modelle muss lediglich der Modellname auf deepseek-v4-pro oder deepseek-v4-flash geändert werden. Die bisherigen Modellnamen deepseek-chat und deepseek-reasoner werden in drei Monaten, konkret am 24. Juli 2026, eingestellt.


