Du hast deine OpenClaw Instanz aufgesetzt. Die Messenger-Integration läuft. Aber jetzt kommt der Teil, der den meisten neuen Nutzern Kopfschmerzen bereitet: Welche kostenlose API nehme ich, ohne auszugeben, was ich nicht habe?
Gute Nachricht: Im Februar 2026 kannst du aus über zehn kostenlosen Optionen wählen. Ich hab praktisch alle mit OpenClaw getestet. Manche sind fantastisch, manche eher Zeitverschwendung. Hier ist das Ergebnis: eine ehrliche Übersicht, ohne Marketing-Versprechen, mit den echten Limits und konkreten Setup-Schritten.
Schnellvergleich: Alle kostenlosen Anbieter auf einen Blick
Schnell-Scan statt Datenbombe: Die wichtigste Spalte ist "Native Unterstützung". Native Anbieter brauchst du nur einen API Key eintragen, fertig. Alles andere bedeutet 20 bis 30 Minuten Extra-Konfiguration. Wenn du gerade anfängst, sparst du damit viel Frustration.
| Anbieter | Kostenloses Limit | OpenAI-kompatibel | Native Unterstützung | Best Use Case |
|---|---|---|---|---|
| OpenRouter | 50 Req/Tag | Ja | Ja | Flexibilität, viele Modelle |
| Groq | 30 RPM, 1K-14.4K RPD | Ja | Ja | Speed, Telegram/WhatsApp Bots |
| Google Gemini | 15 RPM (Flash) | Ja | Ja | Hohes Token-Volumen |
| Mistral AI | 1 Mrd. Tokens/Monat | Ja | Ja | Höchstes Monatsvolumen |
| Cerebras | 1 Mio. Tokens/Tag | Ja | Ja | Speed + Volumen |
| DeepSeek | 5$ Startguthaben (30 Tage) | Ja | Custom | Reasoning |
| Together AI | 25$ Startguthaben (30-90 Tage) | Ja | Custom | Modellauswahl |
| Cohere | 1.000 Calls/Monat | Teilweise | Custom | RAG/Embeddings |
| Hugging Face | Begrenzt | Teilweise | Custom | Experimentieren |
| Cloudflare Workers AI | 10K Neurons/Tag | Nein | Custom | Edge Deployment |
Hier ist der Part, den andere Artikel verschweigen: DeepSeek und Together AI sind kostenlos für 30 bis 90 Tage. Danach? Bezahlt. Das macht sie toll zum Testen, aber nicht langfristig, wenn Budget limitiert ist. Wenn du etwas aufbaust, das Monate kostenlos laufen soll, sind Groq und Mistral die sicherere Wahl.
OpenRouter: Ein API Key, 24+ Modelle
Mein Einstiegstipp: OpenRouter. Warum? Ein API Key, 24+ Modelle, Setup dauert fünf Minuten. OpenClaw hat native Unterstützung für OpenRouter, du brauchst also keine Custom-Konfiguration.
Der Clou: mit einem einzigen Key hast du Zugriff auf über 24 kostenlose Modelle. Gemini 2.0 Flash, Llama 3.3 70B, DeepSeek R1. Du wechselst das Modell, indem du eine Zeile in deiner Config änderst. Kein neuer Account, kein neuer Key.
Beispiel aus der Praxis: Ich hab OpenRouter für einen Testbot genutzt, der verschiedene Anbieter vergleichen sollte. Mit dem kostenlosen Kontingent konnte ich innerhalb einer Woche 15 verschiedene Modelle ausprobieren, ohne Code zu ändern. Das hätte mich mit separaten API Keys und separaten Accounts deutlich länger aufgehalten.
Die Limits:
20 Requests pro Minute
50 Requests pro Tag (war bis April 2025 noch 200)
Mit 10$ Einmalzahlung: 1.000 Requests pro Tag
50 Requests am Tag klingt wenig. Ist es auch, wenn du einen aktiven Bot betreibst. OpenRouter hat im April 2025 die Limits von 200 auf 50 pro Tag gesenkt. Die Community betrachtet die 10$ Einmalzahlung inzwischen als das eigentliche Free Tier. Für den Einstieg und zum Testen verschiedener Modelle trotzdem die beste Option.
OpenClaw Setup:
{
"env": {
"OPENROUTER_API_KEY": "sk-or-..."
},
"agents": {
"defaults": {
"model": {
"primary": "openrouter/google/gemini-2.0-flash-exp:free"
}
}
}
}
Groq: Der Schnellste im Feld
Wenn dein OpenClaw Bot auf Telegram oder WhatsApp läuft und du Antworten unter einer Sekunde brauchst, brauchst du Groq. Die Antwortzeiten sind bemerkenswert: über 300 Tokens pro Sekunde auf Llama 3.3 70B. Für Nutzer fühlt es sich an, als hätte der Bot auf die Frage gewartet, bevor sie fertig war zu tippen.
Der Trick: Groq nutzt eigene LPU-Chips (Language Processing Units) statt Standard-GPUs. Das Ergebnis sind Antwortzeiten unter einer Sekunde, selbst bei größeren Modellen.
Die Limits (Free Tier):
| Modell | RPM | Tokens/Min | Req/Tag |
|---|---|---|---|
| llama-3.3-70b-versatile | 30 | 12.000 | 1.000 |
| llama-3.1-8b-instant | 30 | 6.000 | 14.400 |
| llama-4-scout-17b | 30 | 30.000 | variiert |
Für die genauen, aktuellen Limits: die offizielle Groq-Dokumentation. Die Zahlen ändern sich gelegentlich.
Was bedeuten 1.000 Requests pro Tag in der Praxis? Nehmen wir an, dein Bot wird von 10 Menschen täglich aktiv genutzt. Jede Person schreibt durchschnittlich 5 Nachrichten. Das sind 100 Requests pro Tag. Mit 1.000 Req/Tag hast du Platz für 9 weitere Nutzer, bevor Groq die Bremse zieht. Für einen persönlichen oder Team-internen Bot perfekt. Für einen öffentlichen Bot mit 500 Nutzern? Wird eng.
OpenClaw Setup:
{
"env": {
"GROQ_API_KEY": "gsk_..."
},
"agents": {
"defaults": {
"model": {
"primary": "groq/llama-3.3-70b-versatile"
}
}
}
}
Google Gemini: Das größte Token-Budget
Google hat im Dezember 2025 leise die Gemini-Limits halbiert. Das nervt, ich weiß. Aber: Gemini 2.0 Flash kriegt ihr trotzdem 15 RPM, 1.500 Requests pro Tag und 250.000 Tokens pro Minute. Dazu ein 1-Million-Token Kontextfenster. Das ist immer noch das beste kostenlose Angebot für lange Dokumente.
Google hat die Free Tier Limits um 50 bis 80% gesenkt, ohne öffentliche Ankündigung. Gemini 2.5 Pro steht jetzt bei 5 Requests pro Minute und 25 am Tag. Klingt mager. Aber Flash ist für die meisten Bot-Anwendungsfälle ausreichend.
Die Einschränkung: Deine Daten werden wahrscheinlich für das Modelltraining genutzt, wenn du den kostenlosen Tarif verwendest. Für sensible Daten also nicht ideal.
OpenClaw Setup:
{
"env": {
"GOOGLE_API_KEY": "AIza..."
},
"agents": {
"defaults": {
"model": {
"primary": "google/gemini-2.0-flash"
}
}
}
}
Mistral AI: 1 Milliarde Tokens im Monat. Kostenlos.
Mistral fliegt bei den meisten Vergleichen unter dem Radar. Zu Unrecht. Die Pariser Firma bietet auf "La Plateforme" einen kostenlosen Tarif an, der bis zu 1 Milliarde Tokens pro Monat erlaubt. Eine Milliarde. Im Monat. Kostenlos.
Der Haken? 1 Request pro Sekunde. Klingt limitiert, aber für einen Bot, den nur eine oder zwei Personen nutzen, reicht es vollkommen. Wenn 50 Leute gleichzeitig quetschen? Dann staut es sich.
Ehrlich gesagt hat mich dieses Limit anfangs abgeturnt. Nach drei Wochen Testphase musste ich einsehen, dass es für meine Nutzung völlig egal war. Der Haken ist real, aber nicht für jeden relevant.
Außerdem: bei der Anmeldung musst du deine Telefonnummer angeben und dem Datennutzungsvertrag zustimmen. Manche Entwickler stört das, andere interessiert's nicht.
Verfügbare kostenlose Modelle:
Mistral Small (für schnelle Aufgaben)
Mistral Large (für anspruchsvollere Anfragen)
Codestral (speziell für Code, 30 RPM, 2.000 Req/Tag)
Für reines Token-Volumen pro Monat ist Mistral der klare Gewinner. Nichts anderes kommt nah heran.
OpenClaw Setup:
{
"env": {
"MISTRAL_API_KEY": "..."
},
"agents": {
"defaults": {
"model": {
"primary": "mistral/mistral-small-latest"
}
}
}
}
Cerebras: Der Geheimtipp
Cerebras ist der Anbieter, den ich am meisten empfehle, wenn du Groq-Geschwindigkeit brauchst, aber mit mehr Volumen. 1 Million Tokens pro Tag, 30 Requests pro Minute. Und die Geschwindigkeit ist beeindruckend: unter 500ms Antwortzeiten, selbst mit großen Modellen wie dem 120B Parameter Modell. Für einen kostenlosen Service ist das hervorragend.
Verfügbare Modelle:
| Modell | Tokens/Min | Tokens/Tag | RPM |
|---|---|---|---|
| gpt-oss-120b | 64.000 | 1 Mio. | 30 |
| llama3.1-8b | 60.000 | 1 Mio. | 30 |
| qwen-3-235b-a22b | 60.000 | 1 Mio. | 30 |
Cerebras hat native OpenClaw Unterstützung. Setup funktioniert wie bei den anderen Built-in Providern.
DeepSeek: 5$ Startguthaben für 30 Tage
DeepSeek ist kein dauerhaft kostenloser Anbieter. Neue Accounts bekommen 5$ Guthaben, das nach 30 Tagen verfällt. Danach zahlst du Pay-per-Use (günstig: 0,14$ pro Million Input-Tokens bei V3).
Warum es trotzdem auf der Liste steht: DeepSeek R1 und V3 spielen qualitativ auf GPT-4 Niveau. Für die 30 Tage Testphase bekommst du ein Modell, das sich nicht vor den teuren Konkurrenten verstecken muss. Und über OpenRouter ist DeepSeek R1 dauerhaft kostenlos nutzbar (mit dem 50 Req/Tag Limit).
OpenClaw Setup (Custom Provider):
{
"models": {
"providers": {
"deepseek": {
"api": "openai-completions",
"baseUrl": "https://api.deepseek.com/v1",
"key": "${DEEPSEEK_API_KEY}"
}
}
}
}
Together AI: 25$ Startguthaben
Ähnlich wie DeepSeek: kein dauerhaftes Free Tier, aber 25$ Startguthaben. Die Palette an verfügbaren Open-Source Modellen ist riesig (Llama, Mixtral, Qwen und mehr). Guthaben verfällt nach 30 bis 90 Tagen, je nach Account-Typ.
Gut zum Experimentieren. Für langfristigen Betrieb nicht geeignet, es sei denn du wechselst danach zum Bezahlmodell.
OpenClaw Setup: Custom Provider mit api: "openai-completions" und baseUrl: "https://api.together.xyz/v1".
Cohere: 1.000 Calls pro Monat (nur Entwicklung)
Cohere bietet einen Trial API Key mit 1.000 Calls pro Monat und 20 Requests pro Minute. Der Trial-Key ist explizit nicht für kommerzielle oder produktive Nutzung gedacht.
Cohere glänzt bei RAG (Retrieval-Augmented Generation) und Embeddings. Wenn dein OpenClaw Bot Dokumente durchsuchen soll, könnte Cohere für das Embedding-Modell interessant sein, während du einen anderen Anbieter für den Chat nutzt.
Hugging Face: Nur zum Experimentieren
Hugging Face bietet eine Serverless Inference API an, die kostenlos nutzbar ist. Die Rate Limits sind bewusst niedrig gehalten und nicht exakt dokumentiert. Ein paar hundert Requests pro Stunde, je nach Modell und Auslastung.
Hugging Face sagt selbst, dass der Service "not meant for heavy production applications" ist. Modell-Verfügbarkeit ist inkonsistent. Für OpenClaw im Produktivbetrieb nicht empfehlenswert. Aber um mal schnell ein Open-Source Modell auszuprobieren, bevor du es lokal installierst? Dafür taugt es.
Cloudflare Workers AI: Eigene API, 10K Neurons/Tag
Cloudflare bietet über 50 Modelle an, mit einem Free Tier von 10.000 Neurons pro Tag. Das entspricht geschätzt 200 bis 500 einfachen Requests.
Das Problem für OpenClaw Nutzer: Cloudflare nutzt ihr eigenes REST API Format, nicht das OpenAI-kompatible. Für dich bedeutet das 20 bis 30 Minuten Extra-Konfiguration. Für die meisten OpenClaw Anfänger nicht die erste Wahl.
Welcher Anbieter für welchen Einsatz?
Okay, genug Daten. Hier ist das, was ich wirklich empfehle, basierend auf was ich mit OpenClaw erlebt habe.
Du fängst gerade erst an? OpenRouter. Ein API Key, 24+ Modelle. Fünf Minuten Setup. Die 50 Requests pro Tag reichen, um verschiedene Modelle auszuprobieren, ohne sofort Geld ausgeben zu müssen.
Dein Bot muss schnell antworten? Groq für Telegram/WhatsApp (unter 1 Sekunde), Cerebras wenn du mehr als 1.000 Requests pro Tag brauchst (schnell und Volumen).
Du brauchst viel Volumen, Speed ist zweitrangig? Mistral. 1 Milliarde Tokens im Monat ist schwer zu schlagen.
Du willst die beste Qualität testen? DeepSeek über OpenRouter oder direkt mit dem 5$ Startguthaben. DeepSeek R1 ist für Reasoning-Aufgaben beeindruckend nah an GPT-4.
Du arbeitest mit langen Dokumenten? Gemini Flash. Das 1-Million-Token Kontextfenster gibt es sonst nirgends kostenlos.
Eine kleine Warnung: Theoretisch klingende Empfehlungen klingen oft ideal. In der Praxis wirst du merken, dass kein Anbieter zu 100% passt. Manche APIs sind manchmal langsamer, manche gehen Down. Das ist keine Überraschung, das ist die Realität von kostenlosen Tiers.
Die beste Strategie: Mit OpenRouter starten (testet verschiedene Modelle), dann zu Groq oder Mistral als Primary Provider wechseln, OpenRouter als Fallback halten. OpenClaw unterstützt das mit Fallback-Konfigurationen.
Bereit, loszulegen?
Wenn du auf ClawHosters hostest, ist jeder dieser Anbieter in wenigen Klicks eingerichtet. Kein SSH, keine Config-Dateien, alles direkt über das Dashboard.
OpenClaw jetzt deployen
OpenClaw LLM Setup: Native vs. Custom Provider
Hier ist die Unterscheidung, die deine Setup-Zeit verdoppeln oder halbieren kann. Laut der OpenClaw Konfigurationsdokumentation gibt es zwei Wege:
Nativ unterstützt (5 Minuten Setup): OpenRouter, Groq, Gemini, Mistral, Cerebras. Du brauchst nur den API Key in deiner .env Datei und den richtigen Model-String in der Config.
Custom Provider (20 bis 30 Minuten Setup): DeepSeek, Together AI, Cohere, Hugging Face, Cloudflare. Du musst einen models.providers Block in deiner OpenClaw JSON-Konfiguration anlegen, mit Base URL und API Format.
Wenn du auf ClawHosters hostest, geht das direkt über das ClawHosters Dashboard. API Key rein, Modell auswählen, speichern. Kein SSH, keine Config-Dateien.
Fazit
Die beste kostenlose API für deinen OpenClaw Bot hängt von deinen Anforderungen ab. Für Anfänger: OpenRouter (einfach, viele Modelle). Für Speed: Groq oder Cerebras. Für Volumen: Mistral mit 1 Milliarde Tokens pro Monat.
Ich würde empfehlen, mit OpenRouter zu starten und dann zu wechseln, wenn du weißt, was du wirklich brauchst. Die meisten Leute landen bei Groq oder Mistral als Primary Provider, OpenRouter als Fallback.