Abo -10% SUB-10
Claws -25% LAUNCH-CLAWS
DeepSeek V4: Was sich geändert hat, was Spekulation ist und was es für deinen OpenClaw-Agent bedeutet
$ ./blog/news
Neuigkeiten

DeepSeek V4: Was sich geändert hat, was Spekulation ist und was es für deinen OpenClaw-Agent bedeutet

ClawHosters
ClawHosters von Daniel Samer
4 Min. Lesezeit

DeepSeek hat Anfang Februar 2026 eine Änderung ausgerollt, die kaum jemand mitbekommen hat. Das Context Window der Consumer-App wurde von 128K auf über 1 Million Token erweitert. Ohne Ankündigung. Ohne Pressekonferenz. TrendForce bestätigte den zehnfachen Sprung, die South China Morning Post berichtete, dass DeepSeek jeden Kommentar verweigerte. Parallel dazu kocht die Spekulation rund um deepseek v4 im Netz hoch.

Aber was davon ist relevant für dich als OpenClaw-Nutzer?

Was sich tatsächlich geändert hat (und was nicht)

Das 1M Context Window ist in DeepSeeks Web-App live. Das sind grob 750.000 Wörter Kontext. Genug für eine komplette Codebasis in einem einzigen Prompt.

Die Production API? Läuft weiterhin auf DeepSeek V3.2 (Release: Dezember 2025) mit einem 128K Context Window. Die offizielle API-Dokumentation listet deepseek-chat und deepseek-reasoner als einzige verfügbare Modelle. Kein V4-Endpoint.

Und genau dieser Unterschied ist entscheidend. Wenn du einen OpenClaw-Agent über ClawHosters betreibst, kommuniziert dein Agent mit der API, nicht mit der Web-App. Das 1M-Upgrade erreicht deinen Agent also noch nicht. Wahrscheinlich erst, wenn V4 offiziell erscheint.

Die deepseek api kosten sind schon jetzt absurd niedrig

Vergiss die V4-Spekulation für einen Moment. Die aktuelle Preisstruktur ist die eigentliche Nachricht.

Modell Input (pro 1M Token) Output (pro 1M Token)
DeepSeek V3.2 $0,28 $0,42
Claude Sonnet 4 $3,00 $15,00
GPT-4o $5,00 $15,00
Claude Opus 4 $15,00 $75,00

Das ist 10x günstiger als Claude Sonnet beim Input und 35x günstiger beim Output. Für OpenClaw-Agents, die bei jedem Request denselben System Prompt senden, greift DeepSeeks Cache-Hit-Pricing: $0,028 pro Million Token. Zehn Cent auf den Dollar.

Bei Benchmarks erreicht DeepSeek V3.2-Exp 67,8 % auf SWE-bench Verified und übertrifft damit Claude Sonnet 4 mit 64,8 % auf genau diesem Test. Der Abstand zwischen deepseek vs claude wird spürbar kleiner.

Was ist mit V4

Ehrlich? Niemand außerhalb von DeepSeek weiß es. Drittanbieter-Blogs kursieren mit Spezifikationen (1 Billion Parameter, 1M API-Context, 80 % SWE-bench). Diese Zahlen stammen aus der Analyse von Research Papers, nicht aus offiziellen Mitteilungen. DeepSeeks GitHub hat Stand 22. Februar 2026 kein V4-Repository.

Das Context-Window-Upgrade in der Consumer-App deutet vermutlich darauf hin, dass V4-Entwicklung läuft. Aber das ist Interpretation, keine Bestätigung.

Was das für deinen OpenClaw-Agent bedeutet

Wenn du DeepSeek bereits über deine ClawHosters-Instanz nutzt, ändert sich heute nichts. Dein Agent läuft weiterhin auf V3.2 zum gleichen Preis.

Falls du DeepSeek noch nicht getestet hast, lohnt sich ein Versuch. Für Routineaufgaben wie Message Routing, Knowledge Retrieval und Zusammenfassungen liefert V3.2 gute Ergebnisse zu einem Bruchteil der Kosten. Für komplexes mehrstufiges Reasoning hat Claude weiterhin die Nase vorn. Unser Leitfaden zum AI-Modellvergleich geht die Abwägungen durch, und unser Post zur Token-Kostenoptimierung zeigt, wie du mit Model Routing deine monatliche Rechnung reduzieren kannst.

Wir berichten über V4, sobald DeepSeek es tatsächlich veröffentlicht.

Häufig gestellte Fragen

Nein. Stand Februar 2026 läuft die Production API auf DeepSeek V3.2. V4 wurde weder offiziell angekündigt noch veröffentlicht. Das 1M-Context-Upgrade betrifft ausschließlich DeepSeeks eigene Web-App, nicht die API, die OpenClaw-Agents verwenden.

DeepSeek V3.2 ist nicht kostenlos, aber mit $0,28 pro Million Input-Token nah dran. Zum Vergleich: Free-Tier-Modelle über Anbieter wie OpenRouter existieren, kommen aber mit Rate Limits und niedrigerer Performance. DeepSeek trifft einen guten Mittelweg zwischen Kosten und Leistung.

Das hängt vom Anwendungsfall ab. DeepSeek V3.2 bewältigt Aufgaben mit hohem Volumen und geringerer Komplexität gut, bei 10 bis 50x niedrigeren Kosten. Aber Claude ist stärker bei nuanciertem Instruction Following und komplexen Reasoning-Ketten. Viele OpenClaw-Nutzer fahren beide Modelle parallel: einfache Tasks gehen an DeepSeek, komplexe an Claude.
*Zuletzt aktualisiert: Februar 2026*

Quellen

  1. 1 TrendForce bestätigte den zehnfachen Sprung
  2. 2 South China Morning Post berichtete
  3. 3 offizielle API-Dokumentation
  4. 4 erreicht DeepSeek V3.2-Exp 67,8 % auf SWE-bench Verified
  5. 5 ClawHosters-Instanz
  6. 6 Leitfaden zum AI-Modellvergleich
  7. 7 Post zur Token-Kostenoptimierung
  8. 8 Free-Tier-Modelle über Anbieter wie OpenRouter