Lädt...
Eigene LLM-Anbieter
Eigene LLM-Anbieter nutzen
Der AI Setup-Tab listet gängige Anbieter wie Anthropic, OpenAI, Google und DeepSeek. Aber OpenClaw unterstützt jeden Anbieter mit einer OpenAI-kompatiblen API. Das umfasst Dienste wie Featherless AI, Together AI, Fireworks AI, Anyscale, lokale Ollama-Instanzen und alles andere, was das OpenAI Chat Completions Format versteht.
Du richtest das über den Config Editor ein. Kein Support-Ticket nötig.
Was du brauchst
Bevor du loslegst, brauchst du diese Infos von deinem Anbieter:
- Base URL (der API-Endpunkt, endet meistens mit
/v1) - API-Key (aus dem Dashboard deines Anbieters)
- Model-ID (der genaue Modellname, den dein Anbieter erwartet)
Falls du dir bei der Base URL oder Model-ID nicht sicher bist, schau in die Dokumentation deines Anbieters. Die meisten listen das auf ihrer Quickstart-Seite auf.
Schritt für Schritt
1. Config Editor öffnen
Gehe zu deinem Instanz-Dashboard, dann Einstellungen > Config Editor. Beim ersten Mal siehst du einen Hinweis. Bestätige ihn, um weiterzumachen.
2. models.providers finden
Im JSON-Config suchst du den models-Key, dann providers darin. Da steht schon clawhosters (das ist die inkludierte KI). Du fügst einen neuen Eintrag daneben hinzu.
3. Provider-Block hinzufügen
Füge einen neuen Key unter providers mit dem Namen deines Anbieters hinzu. So sieht die Struktur aus:
"featherless": {
"baseUrl": "https://api.featherless.ai/v1",
"apiKey": "dein-api-key",
"api": "openai-completions",
"models": [
{
"id": "meta-llama/Llama-3.3-70B-Instruct",
"name": "Llama 3.3 70B",
"input": ["text"],
"contextWindow": 131072,
"maxTokens": 8192
}
]
}
Die wichtigen Felder:
| Feld | Was es macht |
|---|---|
baseUrl |
API-Endpunkt deines Anbieters. Muss bei den meisten mit /v1 enden. |
apiKey |
Dein API-Key. Bleibt im Config auf deiner Instanz, wird nie an ClawHosters gesendet. |
api |
Setz das auf "openai-completions" für jeden OpenAI-kompatiblen Anbieter. |
models |
Liste der Modelle, die du nutzen willst. Jedes braucht eine id, die dein Anbieter erwartet. |
4. Config speichern
Klicke auf Speichern. OpenClaw lädt den Config innerhalb weniger Sekunden neu. Kein Neustart nötig.
5. Hauptmodell setzen
Gehe zum AI Setup-Tab. Im Modell-Dropdown siehst du jetzt deine eigenen Modelle als featherless/meta-llama/Llama-3.3-70B-Instruct (Anbietername / Model-ID). Wähle es als Hauptmodell aus.
Anbieter-Beispiele
Hier sind funktionierende Configs für beliebte alternative Anbieter. Ersetze den API-Key durch deinen eigenen.
Featherless AI
Serverlose Inferenz mit über 6.000 Open-Source-Modellen. Flatrate-Preise.
"featherless": {
"baseUrl": "https://api.featherless.ai/v1",
"apiKey": "dein-featherless-key",
"api": "openai-completions",
"models": [
{
"id": "meta-llama/Llama-3.3-70B-Instruct",
"name": "Llama 3.3 70B",
"input": ["text"],
"contextWindow": 131072,
"maxTokens": 8192
},
{
"id": "Qwen/Qwen2.5-72B-Instruct",
"name": "Qwen 2.5 72B",
"input": ["text"],
"contextWindow": 131072,
"maxTokens": 8192
}
]
}
Together AI
Schnelle Inferenz für beliebte Open-Source-Modelle. Abrechnung pro Token.
"together": {
"baseUrl": "https://api.together.xyz/v1",
"apiKey": "dein-together-key",
"api": "openai-completions",
"models": [
{
"id": "meta-llama/Llama-3.3-70B-Instruct-Turbo",
"name": "Llama 3.3 70B Turbo",
"input": ["text"],
"contextWindow": 131072,
"maxTokens": 8192
}
]
}
Lokales Ollama (über ZeroTier)
Wenn du Ollama auf deinem eigenen Rechner laufen hast und ZeroTier eingerichtet ist, kannst du deine Instanz darauf zeigen lassen. Schau dir die ZeroTier Home LLM Anleitung für das Netzwerk-Setup an.
"ollama": {
"baseUrl": "http://DEINE_ZEROTIER_IP:11434/v1",
"apiKey": "ollama",
"api": "openai-completions",
"models": [
{
"id": "llama3.1:8b",
"name": "Llama 3.1 8B (Lokal)",
"input": ["text"],
"contextWindow": 131072,
"maxTokens": 8192
}
]
}
Modell-Konfiguration im Detail
Jeder Modell-Eintrag unterstützt diese Felder:
| Feld | Pflicht | Beschreibung |
|---|---|---|
id |
Ja | Der Modellname, den dein Anbieter erwartet. Schau in deren Docs für die genauen Namen. |
name |
Ja | Anzeigename im Modell-Dropdown. Kann alles sein, was du willst. |
input |
Ja | Setz auf ["text"] für reine Textmodelle. Füge "image" hinzu für Vision-Modelle. |
contextWindow |
Nein | Maximale Kontextlänge in Tokens. Standardwerte variieren je nach Modell. |
maxTokens |
Nein | Maximale Output-Tokens pro Antwort. |
reasoning |
Nein | Setz auf true für Reasoning-Modelle (DeepSeek R1, QwQ, etc.) |
Mehrere Anbieter gleichzeitig
Du kannst so viele Anbieter konfigurieren, wie du willst. Die inkludierte KI (ClawHosters Managed Models) bleibt neben deinen eigenen Anbietern aktiv. Das gibt dir Fallback-Optionen.
Im AI Setup-Tab kannst du:
- Jedes Modell von jedem Anbieter als Hauptmodell setzen
- Fallback-Modelle konfigurieren, die einspringen, wenn dein Hauptmodell nicht erreichbar ist
- Bestimmte Modelle für bestimmte Aufgaben zuweisen (Vision, PDF-Verarbeitung, etc.)
Falls dein eigener Anbieter ausfällt, springt deine Instanz zum nächsten Modell in der Kette.
Fehlerbehebung
Modell taucht nicht im Dropdown auf
Nach dem Speichern des Configs gehe zum AI Setup und lade die Seite neu. Das Modell-Dropdown liest aus dem Live-Config. Wenn es immer noch nicht auftaucht, prüfe deine JSON-Syntax im Config Editor. Ein fehlendes Komma oder eine fehlende Klammer macht den ganzen Config kaputt.
API-Fehler oder "model not found"
Die Model-ID muss exakt mit dem übereinstimmen, was dein Anbieter erwartet. Manche Anbieter nutzen das org/model-name Format, andere nur model-name. Schau in die API-Dokumentation deines Anbieters für das richtige Format.
Langsame Antworten
Die Antwortzeit hängt von deinem Anbieter ab. Die ClawHosters-Infrastruktur steht in Deutschland (Hetzner, Falkenstein). Anbieter mit Servern in den USA oder Asien haben höhere Latenz als EU-basierte Anbieter.
Key funktioniert nicht
Stell sicher, dass dein API-Key aktiv ist und die richtigen Berechtigungen hat. Die meisten Anbieter brauchen mindestens Chat Completions Zugriff. Manche Anbieter haben separate Keys für verschiedene Endpunkte.
Verwandte Dokumentation
- LLM-Add-on (BYOK vs Managed): Übersicht aller LLM-Optionen
- Eigenes LLM zu Hause nutzen: Lokales Modell über ZeroTier verbinden
- Instanzübersicht: Was in deiner Instanz läuft
Verwandte Dokumentation
LLM-Add-on (BYOK vs Managed)
Wie LLM auf ClawHosters funktioniert Jede OpenClaw-Instanz kann ein großes Sprachmodell (LLM) fü...
Was ist OpenClaw?
Ein Open-Source KI-Assistent zum Selbsthosten OpenClaw ist ein Open-Source-Framework, mit dem du...
Instanz-Einstellungen und Konfiguration
Übersicht Nach dem Erstellen einer Instanz kannst du ihr KI-Modell, Messaging-Kanäle, Web-Zugang...