Skip to content
> docs/custom-providers

Eigene LLM-Anbieter

5 min Lesezeit Addons Zuletzt aktualisiert 22. March 2026

Eigene LLM-Anbieter nutzen

Der AI Setup-Tab listet gängige Anbieter wie Anthropic, OpenAI, Google und DeepSeek. Aber OpenClaw unterstützt jeden Anbieter mit einer OpenAI-kompatiblen API. Das umfasst Dienste wie Featherless AI, Together AI, Fireworks AI, Anyscale, lokale Ollama-Instanzen und alles andere, was das OpenAI Chat Completions Format versteht.

Du richtest das über den Config Editor ein. Kein Support-Ticket nötig.

Was du brauchst

Bevor du loslegst, brauchst du diese Infos von deinem Anbieter:

  • Base URL (der API-Endpunkt, endet meistens mit /v1)
  • API-Key (aus dem Dashboard deines Anbieters)
  • Model-ID (der genaue Modellname, den dein Anbieter erwartet)

Falls du dir bei der Base URL oder Model-ID nicht sicher bist, schau in die Dokumentation deines Anbieters. Die meisten listen das auf ihrer Quickstart-Seite auf.

Schritt für Schritt

1. Config Editor öffnen

Gehe zu deinem Instanz-Dashboard, dann Einstellungen > Config Editor. Beim ersten Mal siehst du einen Hinweis. Bestätige ihn, um weiterzumachen.

2. models.providers finden

Im JSON-Config suchst du den models-Key, dann providers darin. Da steht schon clawhosters (das ist die inkludierte KI). Du fügst einen neuen Eintrag daneben hinzu.

3. Provider-Block hinzufügen

Füge einen neuen Key unter providers mit dem Namen deines Anbieters hinzu. So sieht die Struktur aus:

json
"featherless": {
  "baseUrl": "https://api.featherless.ai/v1",
  "apiKey": "dein-api-key",
  "api": "openai-completions",
  "models": [
    {
      "id": "meta-llama/Llama-3.3-70B-Instruct",
      "name": "Llama 3.3 70B",
      "input": ["text"],
      "contextWindow": 131072,
      "maxTokens": 8192
    }
  ]
}

Die wichtigen Felder:

Feld Was es macht
baseUrl API-Endpunkt deines Anbieters. Muss bei den meisten mit /v1 enden.
apiKey Dein API-Key. Bleibt im Config auf deiner Instanz, wird nie an ClawHosters gesendet.
api Setz das auf "openai-completions" für jeden OpenAI-kompatiblen Anbieter.
models Liste der Modelle, die du nutzen willst. Jedes braucht eine id, die dein Anbieter erwartet.

4. Config speichern

Klicke auf Speichern. OpenClaw lädt den Config innerhalb weniger Sekunden neu. Kein Neustart nötig.

5. Hauptmodell setzen

Gehe zum AI Setup-Tab. Im Modell-Dropdown siehst du jetzt deine eigenen Modelle als featherless/meta-llama/Llama-3.3-70B-Instruct (Anbietername / Model-ID). Wähle es als Hauptmodell aus.

Anbieter-Beispiele

Hier sind funktionierende Configs für beliebte alternative Anbieter. Ersetze den API-Key durch deinen eigenen.

Featherless AI

Serverlose Inferenz mit über 6.000 Open-Source-Modellen. Flatrate-Preise.

json
"featherless": {
  "baseUrl": "https://api.featherless.ai/v1",
  "apiKey": "dein-featherless-key",
  "api": "openai-completions",
  "models": [
    {
      "id": "meta-llama/Llama-3.3-70B-Instruct",
      "name": "Llama 3.3 70B",
      "input": ["text"],
      "contextWindow": 131072,
      "maxTokens": 8192
    },
    {
      "id": "Qwen/Qwen2.5-72B-Instruct",
      "name": "Qwen 2.5 72B",
      "input": ["text"],
      "contextWindow": 131072,
      "maxTokens": 8192
    }
  ]
}

Together AI

Schnelle Inferenz für beliebte Open-Source-Modelle. Abrechnung pro Token.

json
"together": {
  "baseUrl": "https://api.together.xyz/v1",
  "apiKey": "dein-together-key",
  "api": "openai-completions",
  "models": [
    {
      "id": "meta-llama/Llama-3.3-70B-Instruct-Turbo",
      "name": "Llama 3.3 70B Turbo",
      "input": ["text"],
      "contextWindow": 131072,
      "maxTokens": 8192
    }
  ]
}

Lokales Ollama (über ZeroTier)

Wenn du Ollama auf deinem eigenen Rechner laufen hast und ZeroTier eingerichtet ist, kannst du deine Instanz darauf zeigen lassen. Schau dir die ZeroTier Home LLM Anleitung für das Netzwerk-Setup an.

json
"ollama": {
  "baseUrl": "http://DEINE_ZEROTIER_IP:11434/v1",
  "apiKey": "ollama",
  "api": "openai-completions",
  "models": [
    {
      "id": "llama3.1:8b",
      "name": "Llama 3.1 8B (Lokal)",
      "input": ["text"],
      "contextWindow": 131072,
      "maxTokens": 8192
    }
  ]
}

Modell-Konfiguration im Detail

Jeder Modell-Eintrag unterstützt diese Felder:

Feld Pflicht Beschreibung
id Ja Der Modellname, den dein Anbieter erwartet. Schau in deren Docs für die genauen Namen.
name Ja Anzeigename im Modell-Dropdown. Kann alles sein, was du willst.
input Ja Setz auf ["text"] für reine Textmodelle. Füge "image" hinzu für Vision-Modelle.
contextWindow Nein Maximale Kontextlänge in Tokens. Standardwerte variieren je nach Modell.
maxTokens Nein Maximale Output-Tokens pro Antwort.
reasoning Nein Setz auf true für Reasoning-Modelle (DeepSeek R1, QwQ, etc.)

Mehrere Anbieter gleichzeitig

Du kannst so viele Anbieter konfigurieren, wie du willst. Die inkludierte KI (ClawHosters Managed Models) bleibt neben deinen eigenen Anbietern aktiv. Das gibt dir Fallback-Optionen.

Im AI Setup-Tab kannst du:

  • Jedes Modell von jedem Anbieter als Hauptmodell setzen
  • Fallback-Modelle konfigurieren, die einspringen, wenn dein Hauptmodell nicht erreichbar ist
  • Bestimmte Modelle für bestimmte Aufgaben zuweisen (Vision, PDF-Verarbeitung, etc.)

Falls dein eigener Anbieter ausfällt, springt deine Instanz zum nächsten Modell in der Kette.

Fehlerbehebung

Modell taucht nicht im Dropdown auf

Nach dem Speichern des Configs gehe zum AI Setup und lade die Seite neu. Das Modell-Dropdown liest aus dem Live-Config. Wenn es immer noch nicht auftaucht, prüfe deine JSON-Syntax im Config Editor. Ein fehlendes Komma oder eine fehlende Klammer macht den ganzen Config kaputt.

API-Fehler oder "model not found"

Die Model-ID muss exakt mit dem übereinstimmen, was dein Anbieter erwartet. Manche Anbieter nutzen das org/model-name Format, andere nur model-name. Schau in die API-Dokumentation deines Anbieters für das richtige Format.

Langsame Antworten

Die Antwortzeit hängt von deinem Anbieter ab. Die ClawHosters-Infrastruktur steht in Deutschland (Hetzner, Falkenstein). Anbieter mit Servern in den USA oder Asien haben höhere Latenz als EU-basierte Anbieter.

Key funktioniert nicht

Stell sicher, dass dein API-Key aktiv ist und die richtigen Berechtigungen hat. Die meisten Anbieter brauchen mindestens Chat Completions Zugriff. Manche Anbieter haben separate Keys für verschiedene Endpunkte.

Verwandte Dokumentation

Verwandte Dokumentation