Abo -30% SUB30
ClawHosters FAQ background

Häufig gestellte Fragen

Alles, was du zu ClawHosters wissen musst. Schnell und ohne Umwege.

Instances (13)

Alles bleibt in Deutschland. Wir nutzen Hetzner Cloud Rechenzentren in Falkenstein, Deutschland. Die Latenz für europäische Nutzer ist dadurch niedrig, und du bist vollständig DSGVO-konform. Deine Daten verlassen niemals die EU.

In den meisten Fällen unter 60 Sekunden. Wir halten vorbereitete Server mit vorinstallierter Software bereit, deine Instanz ist also quasi sofort verfügbar. Du bekommst eine E-Mail, sobald alles fertig ist. Den Fortschritt kannst du auch live im Dashboard verfolgen.

Ja, jederzeit. Beim Pausieren erstellen wir einen Snapshot und entfernen den Server vorübergehend. Solange die Instanz pausiert ist, fallen keine Kosten an. Wenn du weitermachen möchtest, stellen wir alles aus dem Snapshot wieder her. Wichtig zu wissen: Falls dein Guthaben 3 Tage lang bei null bleibt, werden pausierte Instanzen gelöscht.

Du kannst direkt im Dashboard ein Support-Ticket erstellen. Wir überwachen alle Instanzen auch auf unserer Seite. Bei kritischen Ausfällen melden wir uns bei dir, oft bevor du es selbst merkst. Formelle SLA-Garantien bieten wir nicht an, aber wir nehmen Verfügbarkeit ernst.

Du hast zwei Möglichkeiten: das ClawHosters Dashboard und direkten SSH-Zugang. Für den Alltag ist das Dashboard wahrscheinlich am einfachsten. Und SSH ist dann da, wenn du tiefer einsteigen musst. Deine eigenen öffentlichen Schlüssel kannst du in den Dashboard-Einstellungen hinterlegen.

Ja, so viele du brauchst. Jede Instanz wird einzeln abgerechnet. Ein Limit für die Anzahl gibt es nicht, und du verwaltest alle über das gleiche Dashboard. Wenn du ein größeres Deployment planst, melde dich bei uns und wir sprechen über Mengenrabatte.

Wir unterstützen Telegram, Discord, Slack und WhatsApp. Die Einrichtung läuft im Dashboard unter "Messenger konfigurieren." Für Telegram brauchst du einen Bot-Token von BotFather. Bei Discord und Slack funktioniert es ähnlich. Du holst dir einen Bot-Token aus dem jeweiligen Entwickler-Portal. WhatsApp läuft etwas anders, dort gibt es einen Pairing-Prozess über die Web-Oberfläche deiner Instanz. Du kannst auch mehrere Plattformen mit einer Instanz verbinden.

Wenn du diesen Status nach der Bereitstellung siehst, bedeutet das nur, dass der Server läuft, aber noch einen LLM-API-Schlüssel braucht. Gehe zu "AI konfigurieren" im Dashboard und trage deinen Schlüssel ein. Sobald das erledigt ist, wechselt die Instanz automatisch auf "Aktiv".

Wenn du die DM-Richtlinie eines Messenger-Kanals auf "Pairing" setzt, müssen neue Nutzer erst von dir freigegeben werden, bevor sie mit deinem AI-Agenten interagieren können. Ausstehende Anfragen siehst du im Dashboard und kannst sie einzeln annehmen oder ablehnen. Wenn du diesen Schritt überspringen möchtest, setze die DM-Richtlinie einfach auf "Offen". Dann kann jeder sofort eine Konversation starten.

Öffne deine Instanz im Dashboard und wähle "Neuaufbau" aus den Verwaltungsoptionen. Ein Neuaufbau ist ein vollständiger Werksreset. Er löscht den Container komplett und installiert eine frische OpenClaw-Installation von Grund auf. Nutze das als letzten Ausweg, wenn etwas grundlegend kaputt ist und ein einfacher Neustart nicht hilft. Du musst den Einrichtungsassistenten erneut durchlaufen, um deinen LLM-Anbieter, Messenger-Kanäle und andere Einstellungen neu zu konfigurieren. Der Vorgang dauert in der Regel etwa eine Minute.

Ja. Geh im Dashboard zum Zugriff-Tab und aktiviere den SSH-Zugang. Du kannst entweder den bereitgestellten Schlüssel verwenden oder deinen eigenen öffentlichen Schlüssel hinterlegen. Sobald SSH aktiviert ist, siehst du die Verbindungsdaten (IP-Adresse und Port) direkt im Dashboard.

Ein Neuaufbau löscht ALLE Daten im Container. Das betrifft deine LLM-Konfiguration, Messenger-Tokens, Chat-Verlauf, Cron-Jobs, eigene Dateien, SSH-Schlüssel und alle anderen Änderungen, die du vorgenommen hast. Es ist ein vollständiger Werksreset.Was erhalten bleibt: deine Server-IP-Adresse, Subdomain, Instanz-Paket und Abrechnungsmodus. Alles andere startet von vorne. Du durchläufst den Einrichtungsassistenten erneut, um deine Instanz von Grund auf neu zu konfigurieren.

Falls deine Instanz bei der Wiederherstellung fehlgeschlagen ist (z.B. weil der Snapshot abgelaufen ist oder der Server nicht wieder hochgefahren ist), kannst du versuchen, im Dashboard erneut auf "Fortsetzen" zu klicken. Wenn das nicht funktioniert, gibt es möglicherweise ein Problem mit dem zugrunde liegenden Snapshot. Kontaktiere support@clawhosters.com mit deinem Instanznamen und eventuellen Fehlermeldungen. Wir können die Wiederherstellung manuell anstoßen oder eine neue Instanz mit deiner gespeicherten Konfiguration bereitstellen.

Channels (19)

Prüfe zuerst im Dashboard, ob deine Instanz noch läuft. Wenn der Status "Aktiv" ist, aber der Bot trotzdem schweigt, geh zum Channels-Tab und überprüfe, ob dein Bot-Token noch gültig ist. Tokens können ungültig werden, wenn du sie bei BotFather neu generierst. Falls der Token in Ordnung aussieht, trenne den Channel und verbinde ihn neu. Das löst das Problem meistens.

Du brauchst nur einen regulären WhatsApp-Account mit einer eigenen Telefonnummer. Ein WhatsApp Business Account ist nicht erforderlich. ClawHosters nutzt das WhatsApp-Web-Protokoll (Baileys) für die Verbindung. Geh im Dashboard zum Channels-Tab und wähle WhatsApp aus. Deine Instanz zeigt dann einen QR-Code an, den du mit deiner normalen WhatsApp-App scannst. Nach dem Pairing laufen Nachrichten automatisch über deine Instanz.

Ja. Du kannst Telegram, WhatsApp, Discord und Slack gleichzeitig mit derselben Instanz verbinden. Alle Kanäle teilen sich dasselbe KI-Gehirn und die gleiche Konfiguration, sodass dein Assistent überall einheitlich reagiert.

Das ist eine bekannte UI-Verzögerung. Die WhatsApp-Verbindung braucht ein paar Sekunden, um mit dem Dashboard-Status zu synchronisieren. Warte etwa 30 Sekunden und lade die Seite neu. Wenn der Status nach einer Minute immer noch "Wartend" anzeigt, trenne die Verbindung und koppele über den QR-Code-Flow neu. In seltenen Fällen ist die Session still abgebrochen. Neu koppeln behebt das.

WhatsApp erlaubt bis zu 4 verknüpfte Geräte pro Telefonnummer, aber wenn du dieses Limit erreichst, trennt ein neues verknüpftes Gerät das älteste. Wenn du mehrere WhatsApp-Web-Sessions offen hast, kann eine davon deine ClawHosters-Session sein. Prüfe deine verknüpften Geräte in WhatsApp (Einstellungen > Verknüpfte Geräte) und stelle sicher, dass die ClawHosters-Session noch aktiv ist. Prüfe außerdem, ob dein Handy eine stabile Internetverbindung hat, da WhatsApp erfordert, dass das Telefon online bleibt, damit die Bridge funktioniert. Falls die Trennungen weiterhin auftreten, geh zu den Einstellungen und nutze "Doctor Fix" im Fehlerbehebungs-Bereich, um die Kanäle neu zu verbinden.

Gehe zum Discord Developer Portal (discord.com/developers) und erstelle eine neue Anwendung. Unter dem "Bot"-Tab erstellst du einen Bot und kopierst sein Token. Stelle sicher, dass du "Message Content Intent" unter Privileged Gateway Intents aktivierst, sonst kann der Bot keine Nachrichten lesen. Dann gehst du in deinem ClawHosters-Dashboard zum Channels-Tab, wählst Discord aus und fügst das Bot-Token ein. Zum Schluss lädst du den Bot über den OAuth2-URL-Generator im Developer Portal auf deinen Discord-Server ein (wähle den "bot"-Scope und die Berechtigungen, die dein Bot braucht).

Ja. Du kannst Slack genauso wie Telegram, WhatsApp und Discord mit deiner OpenClaw-Instanz verbinden. Richte es im Channels-Tab in deinem Dashboard ein. Du musst eine Slack-App im Slack-API-Portal erstellen, das Bot-Token hinzufügen und den Bot in deinen Workspace einladen. Alle vier Plattformen können gleichzeitig auf derselben Instanz laufen.

Fehler 4014 bedeutet, dass der "Message Content Intent" für deinen Discord-Bot nicht aktiviert ist. Geh zum Discord Developer Portal (discord.com/developers), wähle deine Bot-Anwendung aus, navigiere zum "Bot"-Tab und aktiviere "Message Content Intent" unter Privileged Gateway Intents. Ohne das kann dein Bot keine Nachrichteninhalte lesen und ignoriert alles stillschweigend. Nach dem Aktivieren verbinde den Discord-Channel in deinem ClawHosters-Dashboard neu.

Starte mit "Doctor Fix" in den Einstellungen unter dem Fehlerbehebungs-Bereich. Es verbindet Kanäle neu und behebt veraltete Plugin-Zustände, ohne deine Instanz zu stören. Falls das nicht hilft, probiere "Gateway neustarten" (ebenfalls nicht störend, lädt die Verbindungsschicht neu). Bei hartnäckigen Problemen trenne den Channel im Dashboard, warte ein paar Sekunden und verbinde ihn neu. Bei WhatsApp musst du über den QR-Code neu koppeln. Bei Telegram gibst du einfach den Bot-Token erneut ein.

Ja. OpenClaw unterstützt WhatsApp-Gruppen mit drei Modi, die du im Config Editor unter channels.whatsapp.groupPolicy einstellst: "open": Dein Bot reagiert in allen Gruppen, in denen er Mitglied ist. Gut zum Testen, aber für den Alltag meistens zu offen. "allowlist": Dein Bot reagiert nur in Gruppen, die du explizit freigegeben hast. Das ist die empfohlene Einstellung für den produktiven Einsatz. "disabled": Gruppennachrichten werden komplett ignoriert. Nur Direktnachrichten kommen durch. Standardmäßig steht die Einstellung auf "allowlist" mit einer leeren Liste, was bedeutet: keine Gruppen sind aktiv. Du musst also erst Gruppen hinzufügen, bevor dein Bot dort reagiert. Siehe "Wie füge ich WhatsApp-Gruppen zur Allowlist hinzu?" weiter unten.Wichtig: Wenn du "allowlist" nutzt, brauchst du zusätzlich die Einstellung groupAllowFrom. Ohne die werden alle Gruppennachrichten blockiert, auch wenn die Gruppe auf der Liste steht. Setze groupAllowFrom auf ["*"], damit alle Absender in deinen erlaubten Gruppen den Bot triggern können. Die Gruppen-Filterung bleibt trotzdem aktiv. Mehr dazu unter "Mein Bot antwortet in keiner WhatsApp-Gruppe".

Dein Bot kann Gruppen auch selbst zur Allowlist hinzufügen, wenn du ihn direkt per WhatsApp (in einem Einzelchat) darum bittest. Schreib ihm z.B.: "Bitte füge die Gruppe XY zur Allowlist hinzu." Der Bot kennt die Gruppen, in denen er Mitglied ist, und kann die JID (die interne Gruppen-ID) selbst zuordnen. Falls der Bot die Gruppe hinzufügt, ist meistens ein Gateway-Restart nötig, damit die Änderung greift. Der Bot weist dich darauf hin.Alternativ kannst du Gruppen manuell im Config Editor hinzufügen. Gehe zu Einstellungen > Config Editor und navigiere zu channels.whatsapp.groups. Dort trägst du die WhatsApp-JID der Gruppe ein (sieht aus wie 120363425793822146@g.us). Du findest die JID, indem du deinen Bot in einem Einzelchat fragst, welche Gruppen er sieht.Pro Gruppe kannst du festlegen, ob der Bot nur auf direkte Erwähnungen (@Botname) reagieren soll oder auf alle Nachrichten: json Copy { "channels": { "whatsapp": { "groupPolicy": "allowlist", "groupAllowFrom": ["*"], "groups": { "120363425793822146@g.us": { "requireMention": false }, "120363407300813107@g.us": { "requireMention": true } } } } } Mit "requireMention": true reagiert der Bot nur, wenn er direkt erwähnt oder auf eine seiner Nachrichten geantwortet wird. Praktisch für Gruppen mit vielen Teilnehmern, damit der Bot nicht auf jede Nachricht antwortet.

Das häufigste Problem: Die Einstellung groupAllowFrom fehlt in deiner Config. Wenn groupPolicy auf "allowlist" steht, prüft OpenClaw zwei Dinge: Ist die Gruppe auf der Liste? Und ist der Absender in groupAllowFrom? Ohne groupAllowFrom blockiert der Absender-Filter alle Nachrichten, egal ob die Gruppe erlaubt ist.Die Lösung: Gehe zu Einstellungen > Config Editor und setze channels.whatsapp.groupAllowFrom auf ["*"]. Das erlaubt allen Absender in deinen freigegebenen Gruppen, den Bot zu triggern. Die Gruppen-Filterung über die Allowlist bleibt aktiv.Falls groupAllowFrom bereits gesetzt ist und der Bot trotzdem schweigt, prüfe diese Punkte: Gruppen-JID korrekt? Die JID muss exakt stimmen (z.B. 120363425793822146@g.us). Frag deinen Bot in einem Einzelchat, welche Gruppen er sieht und wie die JIDs lauten. Gateway nach Config-Änderung neu gestartet? Manche Gruppen-Änderungen brauchen einen Gateway-Restart. Gehe zu Einstellungen > Fehlerbehebung > Gateway neustarten. Bot in der Gruppe? Dein Bot muss als Teilnehmer in der WhatsApp-Gruppe sein. Füge die Telefonnummer, mit der du OpenClaw gekoppelt hast, zur Gruppe hinzu.

WhatsApp-Gruppen können nach Verbindungsabbrüchen unzuverlässig werden. Das liegt an der WhatsApp-Web-Bridge (Baileys), die OpenClaw nutzt. Nach einem Reconnect (z.B. nach einem Gateway-Restart oder wenn die Verbindung kurz abbricht) gehen manchmal die Gruppen-Subscriptions verloren. Direktnachrichten funktionieren dann noch, aber einzelne Gruppen werden still.Was du versuchen kannst: WhatsApp komplett neu koppeln: Im Dashboard unter Channels WhatsApp trennen, 30 Sekunden warten, dann über den QR-Code neu verbinden. Das erzwingt eine komplett frische Session. Bot aus der Gruppe entfernen und neu hinzufügen: Das erzwingt eine neue Subscription bei WhatsApp für diese Gruppe. Gateway neustarten: Gehe zu Einstellungen > Fehlerbehebung > Gateway neustarten. Manchmal reicht das schon. Falls das Problem bei einer bestimmten Gruppe dauerhaft auftritt, erstelle ein Support-Ticket. Wir schauen uns die Logs an und können gezielt helfen.

Ja. Wenn du mehrere Agenten betreibst (z.B. einen Owner-Agent und einen Guest-Agent), kannst du jedem einen eigenen Telegram-Bot geben. Nachrichten an jeden Bot werden automatisch an den richtigen Agenten weitergeleitet.Richte es in drei Schritten ein: Erstelle einen Bot pro Agent bei BotFather. Du hast dann zwei separate Bot-Tokens. Konfiguriere Multi-Account Telegram in deiner Config unter channels.telegram.accounts: json Copy "channels": { "telegram": { "defaultAccount": "owner", "accounts": { "owner": { "botToken": "DEIN_OWNER_BOT_TOKEN", "dmPolicy": "pairing", "groupPolicy": "allowlist" }, "guest": { "botToken": "DEIN_GUEST_BOT_TOKEN", "dmPolicy": "pairing", "groupPolicy": "allowlist" } } } } Füge Bindings hinzu, um jeden Account seinem Agenten zuzuordnen: json Copy "bindings": [ { "agentId": "owner-agent-id", "match": { "channel": "telegram", "accountId": "owner" } }, { "agentId": "guest-agent-id", "match": { "channel": "telegram", "accountId": "guest" } } ] Ein paar Dinge zu beachten: Setze immer "defaultAccount", wenn du mehrere Accounts nutzt. Ohne das kann OpenClaw Nachrichten nicht richtig zuordnen und openclaw doctor wird eine Warnung anzeigen. Jeder Bot braucht ein eigenes Pairing. Nach dem Anwenden der Config koppelst du dich selbst mit dem Owner-Bot und teilst den Guest-Bot mit denen, die ihn nutzen sollen. Das ersetzt das Single-Bot-Setup unter channels.telegram. Entferne die alten botToken, dmPolicy und groupPolicy von der obersten Ebene, wenn du zum accounts-Pattern wechselst. Multi-Account Telegram braucht OpenClaw 2026.3 oder neuer. Wende die Config über Einstellungen > Config-Editor an. Erstelle vorher ein Konfig-Backup.

Ja. OpenClaw hat eingebaute Spracherkennung (Speech-to-Text, STT), die mit Telegram-, WhatsApp- und Discord-Sprachnachrichten funktioniert. Wenn jemand eine Sprachnachricht schickt, transkribiert OpenClaw sie automatisch und verarbeitet den Text wie eine normale Nachricht. Dafür brauchst du einen API-Key von einem unterstützten Anbieter (z.B. OpenAI). Wenn kein STT-Anbieter konfiguriert ist, werden Sprachnachrichten ignoriert.

Am einfachsten über den Config Editor. Geh zu Einstellungen > Config Editor und füge deinen OpenAI API-Key im env-Bereich hinzu: json Copy "env": { "OPENAI_API_KEY": "sk-dein-key-hier" } Zusammenführen mit den bestehenden env-Keys (nicht ersetzen). Config speichern. OpenClaw erkennt den Key automatisch und fängt an, Sprachnachrichten mit gpt-4o-mini-transcribe zu transkribieren.Wenn du mehr Kontrolle willst, kannst du auch einen expliziten Config-Block hinzufügen: json Copy "tools": { "media": { "audio": { "enabled": true, "models": [ { "provider": "openai", "model": "gpt-4o-mini-transcribe" } ] } } } Aber allein die Env-Variable reicht für die meisten Setups.Hinweis: Der OpenAI-Key wird hier nur für die Transkription verwendet. Dein normales Chat-/LLM-Setup bleibt davon unberührt.

OpenClaw unterstützt mehrere STT-Anbieter: OpenAI: gpt-4o-mini-transcribe (empfohlen, gute Balance aus Geschwindigkeit und Genauigkeit) und gpt-4o-transcribe (höhere Genauigkeit, etwas teurer) Groq: Schnelle Inferenz, nutzt deinen Groq API-Key Deepgram: Nutzt das nova-3 Modell, setze DEEPGRAM_API_KEY als Env-Variable Google: Wird automatisch über Gemini erkannt Mistral: voxtral-mini-latest Modell Lokale CLIs: Whisper (Python), whisper-cli (C++), sherpa-onnx für Offline-Transkription ohne API-Kosten Wenn keine explizite Config gesetzt ist, erkennt OpenClaw verfügbare Anbieter automatisch in dieser Reihenfolge: zuerst lokale CLIs, dann OpenAI, Groq, Deepgram, Google.Du kannst auch mehrere Anbieter als Fallback verketten. Wenn der erste fehlschlägt (Größenlimit, Timeout, Auth-Fehler), wird automatisch der nächste versucht.

Ja. Standardmäßig läuft die Transkription still im Hintergrund. Du kannst aber das Transkript-Echo aktivieren, damit der Bot zuerst zurückschreibt, was er verstanden hat. Füge das über Einstellungen > Config Editor hinzu: json Copy "tools": { "media": { "audio": { "echoTranscript": true, "echoFormat": "📝 \"{transcript}\"" } } } Der Bot antwortet dann zuerst mit dem transkribierten Text (in deinem Format) und verarbeitet ihn danach ganz normal weiter. Praktisch zum Debuggen oder um zu prüfen, ob die Transkription korrekt war.

In Telegram-Gruppen mit requireMention: true führt OpenClaw eine "Preflight"-Transkription durch, um zu prüfen, ob die Sprachnachricht den Bot namentlich erwähnt. Wenn die Transkription "@DeinBotName" enthält, wird die Nachricht verarbeitet. Wenn nicht, wird sie ignoriert (genau wie Textnachrichten ohne Erwähnung).Wenn Sprachnachrichten in DMs funktionieren, aber nicht in Gruppen, prüfe die requireMention-Einstellung deiner Gruppe. Setze sie entweder auf false, um alle Sprachnachrichten zu verarbeiten, oder stelle sicher, dass die Leute den Bot-Namen in ihrer Sprachnachricht erwähnen.Wenn Sprachnachrichten überhaupt nicht funktionieren (weder in DMs noch in Gruppen), ist dein STT-Anbieter wahrscheinlich nicht richtig konfiguriert. Prüfe, ob dein API-Key im env-Bereich gesetzt ist und der Anbieter erreichbar ist. Du kannst das in den Instanz-Logs unter Einstellungen > Logs überprüfen, dort tauchen Transkriptionsfehler auf.Es gibt auch eine Einstellung pro Gruppe, um die Preflight-Transkription komplett zu deaktivieren: Setze channels.telegram.groups.DEINE_GRUPPEN_ID.disableAudioPreflight auf true im Config Editor. Damit wird die Sprachnachrichten-Verarbeitung in dieser bestimmten Gruppe übersprungen.

Configuration (24)

Öffne deine Instanz im Dashboard und geh zum Einstellungen-Tab. Dort kannst du den System-Prompt, die Modellauswahl, die Temperatur und andere Parameter anpassen. Änderungen werden innerhalb von Sekunden über Live-Reload übernommen, du musst also nichts neu starten.

Skills sind Zusatzfähigkeiten für deinen KI-Agenten, zum Beispiel Websuche, Bildgenerierung oder Dateiverarbeitung. Du kannst sie direkt im Dashboard über ClawHub durchstöbern und installieren. Wenn du etwas Spezielles brauchst, kannst du auch eigene Skills entwickeln und auf deine Instanz hochladen.

Konfigurationsänderungen werden per Live-Reload übernommen, ein falscher Wert kann also sofort Probleme verursachen. Häufige Fehler: ungültiges API-Key-Format, nicht unterstützte Modellnamen oder Tippfehler in den Konfigurationsschlüsseln. Geh zu den Einstellungen und probiere "Config reparieren" im Fehlerbehebungs-Bereich. Das scannt nach häufigen Problemen und behebt sie automatisch. Falls das nicht hilft, prüfe den Logs-Tab auf die genaue Fehlermeldung. Du kannst auch "Doctor Fix" nutzen, um veraltete Zustände zu bereinigen, ohne den Betrieb zu stören.

Der Config-Editor in deinem Dashboard validiert Schlüssel beim Tippen. Bei einem ungültigen Schlüssel wird eine Warnung angezeigt. Halte dich an die Schlüssel, die in der Autovervollständigung des Editors erscheinen. Für erweiterte Konfiguration schau in die OpenClaw-Dokumentation. Änderungen über den Config-Editor im Dashboard sind immer sicherer als das direkte Bearbeiten von Konfigurationsdateien, da Fehler erkannt werden, bevor sie übernommen werden.

Das sind zwei verschiedene Authentifizierungswege zum selben Anbieter: openai/ nutzt einen API Key von platform.openai.com. Du zahlst pro Token und hast die Rate-Limits deines API-Tiers. openai-codex/ nutzt dein ChatGPT-Abo (Plus, Pro, Team) über OAuth. Du nutzt dein Abo-Kontingent mit eigenen Rate-Limits. Das ist wichtig für die Modellkonfiguration: Wenn du dich per Codex OAuth angemeldet hast, funktionieren nur openai-codex/-Modelle (z.B. openai-codex/gpt-5.1). Modelle mit dem openai/-Prefix (z.B. openai/gpt-5.2) brauchen einen separaten API Key und schlagen fehl, wenn keiner hinterlegt ist.Typisches Problem: Du konfigurierst openai/gpt-5.2 als Fallback, hast aber nur OAuth. Der Fallback schlägt fehl und OpenClaw fällt auf dein primäres Modell zurück, das vielleicht schon am Rate-Limit ist. Lösung: Nutze openai-codex/-Modelle oder clawhosters/-Modelle (die im Plan enthaltenen Managed Models) als Fallbacks.

Fallback-Modelle springen ein, wenn dein primäres Modell nicht verfügbar ist (z.B. durch Rate-Limits oder Ausfälle). Ohne konfigurierte Fallbacks scheitert der Agent einfach, statt auf ein Backup umzuschalten.Du kannst Fallbacks über das Dashboard im Einstellungen-Tab konfigurieren oder per Kommandozeile (SSH): text Copy openclaw models fallbacks add clawhosters/deepseek-reasoner openclaw models fallbacks add clawhosters/deepseek-chat Dein Plan enthält kostenlose Managed Models, die sich gut als Fallbacks eignen: clawhosters/deepseek-reasoner (DeepSeek R1, gut für Reasoning) clawhosters/deepseek-chat (DeepSeek V3, schnell) clawhosters/gemini-2.5-flash-lite (Gemini Flash Lite, schnell und günstig) Prüfe auch deine Agenten-Einstellungen und Cron-Jobs. Wenn dort Modelle von Anbietern stehen, die du nicht konfiguriert hast (z.B. nvidia/ ohne nvidia API Key), schlagen diese fehl und belasten dein Hauptmodell unnötig durch Fallback-Kaskaden.

OpenClaw hat einen eingebauten Cron-Scheduler, mit dem dein Assistent Aufgaben nach Zeitplan oder zu einem bestimmten Zeitpunkt ausführen kann. Du kannst deinen Assistenten bitten, "jeden Morgen die Nachrichten zu prüfen" (wiederkehrend) oder "erinnere mich morgen um 15 Uhr" (einmalig). Der Assistent erstellt automatisch Cron-Jobs, wenn du solche Anfragen stellst.Es gibt zwei Zeitplan-Typen: "every" führt einen Job in einem wiederkehrenden Intervall aus (z.B. stündlich, täglich um 9 Uhr), und "at" führt einen Job einmalig zu einem bestimmten Zeitpunkt aus und löscht sich danach selbst.Jeder Cron-Job hat außerdem einen Payload-Typ, der bestimmt, was beim Auslösen passiert: agentTurn: Der Assistent führt einen vollständigen Gesprächszug aus und kann dir eine Nachricht senden. Nutze das für Erinnerungen und alles, was eine sichtbare Antwort erzeugen soll. systemEvent: Fügt eine Notiz still in den Sitzungskontext ein. Das sendet dir keine Nachricht oder Benachrichtigung. Nutze das für Kontext-Updates im Hintergrund. Damit Erinnerungen tatsächlich in deinem Chat ankommen, muss der Job agentTurn mit announce-Zustellmodus verwenden. Falls dein Assistent stattdessen systemEvent-Jobs für Erinnerungen erstellt, installiere den remind-me-Skill von ClawHub, um ihm die richtige Vorgehensweise beizubringen.Du kannst deine Cron-Jobs im Cron-Tab deines Dashboards einsehen und verwalten. Der Ausführungsverlauf zeigt, ob jeder Job erfolgreich ausgeführt wurde und ob eine Nachricht zugestellt wurde.

Jeder LLM-Anbieter nutzt einen bestimmten Format-String. Für Anthropic (Claude-Modelle) verwende anthropic-messages (z.B. anthropic-messages/claude-sonnet-4-20250514). Für OpenAI verwende openai-completions (z.B. openai-completions/gpt-4o). Für Google Gemini verwende google (z.B. google/gemini-2.5-flash). Für OpenRouter verwende openrouter (z.B. openrouter/anthropic/claude-sonnet-4). Das Format ist wichtig. Ein falsches Format führt zu API-Fehlern. Im Addons-Tab deines Dashboards findest du die vollständige Liste der unterstützten Anbieter und ihrer Format-Strings.

Nicht alle Modelle können gleich gut mit Tools umgehen. Tool Calling ist der Mechanismus, über den dein Assistent die eingebauten Funktionen von OpenClaw nutzt (z.B. Cron-Jobs erstellen, Nachrichten senden oder im Web suchen). Leichtgewichtige und "Fast"-Modellvarianten haben oft Schwierigkeiten mit komplexen Tool-Schemas und scheitern dann entweder leise oder erstellen fehlerhafte Tool-Aufrufe.Modelle, die gut mit Tools und Zeitplanung umgehen: xAI Grok 4.1 Fast: Hervorragendes Tool Calling, weltweit verfügbar. Z.AI GLM-5: Starkes Tool Calling, gute Alternative wenn xAI nicht in Frage kommt. Anthropic Claude Sonnet 4: Sehr zuverlässig (braucht API-Zugang aus unterstützten Regionen). OpenAI GPT-4o: Solides Tool Calling (braucht API-Zugang aus unterstützten Regionen). Modelle, die bei Tool Calling Schwierigkeiten haben: Gemini Flash Lite und ähnliche Ultra-Leichtgewicht-Modelle. Non-Reasoning "Fast"-Varianten kleinerer Modelle. Einige DeepSeek-Modelle über den Managed Proxy (Timeout-Probleme). Falls deine Erinnerungen nicht funktionieren, erstellt das Modell möglicherweise den falschen Cron-Job-Typ (systemEvent statt agentTurn). Installiere den cron-mastery-Skill von ClawHub, damit dein Assistent die richtige Vorgehensweise lernt. Teste danach, indem du eine einfache Erinnerung setzt und im Cron-Tab prüfst, ob ein Job mit dem richtigen Typ erstellt wurde.

Manche LLM-Anbieter beschränken den direkten API-Zugang aus bestimmten Regionen. Stand 2025 blockieren sowohl Anthropic (Claude) als auch OpenAI (GPT) API-Anfragen aus mehreren Ländern und Gebieten, darunter Hongkong, Festland-China, Russland und andere. Wenn du in einer betroffenen Region bist, schlägt die API-Key-Validierung fehl, auch wenn der Schlüssel selbst gültig ist.Alternativen, die weltweit oder mit weniger Einschränkungen funktionieren: xAI (Grok): In den meisten Regionen verfügbar. Grok 4.1 Fast ist hervorragend für Tool Calling und Zeitplanung. Z.AI / Zhipu: Das Z.AI Coding Plan Addon gibt dir Zugang zu GLM-5 (starkes Reasoning und Tool-Nutzung), GLM-4.7 und GLM-4.5 Air. Weltweit verfügbar. Google Gemini: In den meisten Ländern verfügbar. Gemini 2.5 Flash ist schnell und leistungsfähig. DeepSeek: Weltweit verfügbar. Gut für allgemeine Konversation, wobei manche Modelle bei tool-intensiven Aufgaben langsam sein können. Alle diese Anbieter kannst du als primäres Modell oder als Fallback im Einstellungen-Tab konfigurieren. Wenn du unsicher bist, welche Anbieter in deiner Region funktionieren, probiere einfach einen API Key im Dashboard hinzuzufügen. Die Key-Validierung zeigt dir sofort, ob die Verbindung klappt.

Die Bezeichnungen variieren je nach Anbieter, aber grundsätzlich bedeuten sie:Fast: Optimiert für Geschwindigkeit und geringere Kosten. Antworten kommen schnell, aber das Modell kann bei komplexen Aufgaben weniger genau sein. Gut für einfache Konversationen und schnelle Antworten.Reasoning: Das Modell denkt Schritt für Schritt, bevor es antwortet. Dadurch ist es besser bei komplexen Aufgaben wie dem Erstellen von Cron-Jobs mit den richtigen Parametern, mehrstufiger Tool-Nutzung und dem Befolgen detaillierter Anweisungen. Der Kompromiss: langsamere Antwortzeiten und höherer Token-Verbrauch.Non-Reasoning: Überspringt den internen Denkschritt komplett. Schnellste Antwortzeiten, kann aber Feinheiten in Tool-Schemas oder komplexen Anweisungen übersehen. Für lockere Chats in Ordnung, aber weniger zuverlässig für Zeitplanung und Automatisierung.Für Erinnerungen, Cron-Jobs und alles, was Tool Calling erfordert, funktionieren Reasoning-Varianten oder Standard-Modelle (ohne Suffix) in der Regel zuverlässiger als Non-Reasoning-Fast-Varianten. Wenn dein Assistent wiederholt daran scheitert, Cron-Jobs zu erstellen oder Tools korrekt aufzurufen, hilft oft schon der Wechsel von einer "Fast"- oder "Non-Reasoning"-Variante zur Standard- oder "Reasoning"-Version desselben Modells.

OpenClaw hat ein eingebautes Gedächtnissystem, das deine Workspace-Dateien indexiert und während Konversationen durchsuchbar macht. Die wichtigsten Bestandteile: MEMORY.md: Eine kuratierte Datei im Workspace-Root mit deinem Langzeitkontext (Identität, Vorlieben, wichtige Infos). Diese Datei wird besonders behandelt: immer zuerst indexiert, nie von zeitlichem Verfall betroffen. Eine gute MEMORY.md zu schreiben ist das Beste, was du für die Gedächtnisqualität tun kannst. memory/*.md-Dateien: Tagesnotizen, Projektnotizen, Workflow-Dokumentation. Werden automatisch indexiert und sind durchsuchbar. memorySearch: Die Suchmaschine, die relevanten Kontext abruft. Unterstützt hybride Suche, die BM25-Keyword-Matching mit semantischer Vektorsuche kombiniert. Um memorySearch mit Hybrid-Modus zu aktivieren, geh zum Einstellungen-Tab und aktualisiere deine Config: json Copy "agents": { "defaults": { "memorySearch": { "enabled": true, "provider": "openai", "model": "text-embedding-3-small", "query": { "hybrid": { "enabled": true, "vectorWeight": 0.7, "textWeight": 0.3 } } } } } Falls du OpenRouter für Embeddings nutzt, setze remote.baseUrl auf https://openrouter.ai/api/v1 und hinterlege deinen API Key unter remote.apiKey.Du kannst auch zeitlichen Verfall aktivieren (neuere Erinnerungen ranken höher, 30 Tage Halbwertszeit) und MMR-Diversität (verhindert redundante Ergebnisse aus ähnlichen Tagesnotizen) unter query.hybrid. In der OpenClaw-Dokumentation findest du die vollständige Referenz zur Gedächtniskonfiguration.Lokale Embeddings (ohne API-Aufrufe): Wenn du keine Daten an externe Embedding-APIs senden willst, kannst du Embeddings lokal in deiner Instanz ausführen. Setze "provider": "local" und OpenClaw nutzt ein kleines GGUF-Modell (~600MB), das beim ersten Aufruf automatisch heruntergeladen wird. Das braucht einen einmaligen Build-Schritt im Container (pnpm approve-builds + pnpm rebuild node-llama-cpp). Auf Balanced- und Pro-Tiers ist der RAM-Overhead (~350MB) kein Problem. Auf dem Budget-Tier ist es knapp, aber machbar. Wenn du lokale Embeddings einrichten willst, eröffne ein Support-Ticket und wir führen die Build-Befehle für dich aus.

Ja, mit ein paar Einschränkungen je nach Tier.QMD (Query Markdown Database) ist ein alternatives Gedächtnis-Backend, das lokal auf deiner Instanz läuft. Es lädt drei kleine GGUF-Modelle herunter (~2GB insgesamt) und macht BM25 + Vektor + LLM-Re-Ranking komplett auf dem Gerät, ohne externe API-Aufrufe für die Suche. So richtest du es ein: Aktiviere SSH-Zugang in deinem Dashboard Verbinde dich per SSH und führe aus: bun install -g https://github.com/tobi/qmd Füge "memory": { "backend": "qmd" } zu deiner Config hinzu QMD verbraucht etwa 600MB zusätzlichen RAM. Auf Balanced- und Pro-Tiers ist das kein Problem. Auf dem Budget-Tier kann es eng werden, je nachdem was dein Agent sonst noch macht. Der Modell-Download passiert einmalig beim ersten Start.Graphiti nutzt eine Neo4j-Graphdatenbank für temporale Wissensgraphen mit automatischem Abruf und automatischer Erfassung. Ein starkes Konzept, aber es braucht eine vollständige Neo4j-Instanz neben deinem Agenten. Das ist auf ClawHosters aktuell nicht machbar, da jede Instanz eine einzelne Docker-Komposition nutzt und zusätzliche Datenbankdienste nicht unterstützt werden.Obsidian passt gut zu deiner Instanz, wenn du den Obsidian-Skill installiert hast. Du kannst Obsidian auf deinem Rechner nutzen, um deine Gedächtnisdateien zu pflegen und zu organisieren, und sie dann über ein Sync-Plugin mit dem Workspace deiner Instanz synchronisieren. So hast du lokal eine schöne visuelle Bearbeitungsoberfläche, während dein Agent auf dem Server auf dieselben Dateien zugreift.Für die meisten Setups liefert die eingebaute memorySearch mit Hybrid-Modus hervorragende Ergebnisse ohne zusätzliche Abhängigkeiten. Die Einrichtung findest du im FAQ-Eintrag weiter oben.

OpenClaw hat keine maxContextMessages- oder maxContextTokens-Einstellungen. Unbekannte Schlüssel in der Config verursachen Validierungsfehler und können das Gateway zum Absturz bringen. Verwende nur Schlüssel, die in der Autovervollständigung des Config-Editors auftauchen.Der richtige Weg, die Kontextgröße zu steuern, sind drei eingebaute Mechanismen, die zusammenarbeiten: Context Pruning (agents.defaults.contextPruning): Kürzt alte Tool-Ergebnisse vor jedem LLM-Aufruf. Der Standardmodus ist cache-ttl. Wichtige Einstellungen sind keepLastAssistants (wie viele der letzten Assistenten-Turns vollständig erhalten bleiben, Standard 3) und softTrim.maxChars (schrumpft übergroße Tool-Outputs, Standard 4000 Zeichen). Das ist der direkteste Hebel, um den Token-Verbrauch pro Aufruf zu senken. Compaction (agents.defaults.compaction.mode: "safeguard"): Fasst den Gesprächsverlauf automatisch zusammen, wenn der Kontext sich dem Token-Limit des Modells nähert. Statt abzustürzen oder abzuschneiden, kondensiert OpenClaw ältere Turns in eine Zusammenfassung und macht weiter. Das ist standardmäßig bereits aktiv. Seit v2026.4.7 kannst du über agents.defaults.compaction.provider einen eigenen Kompaktierungsanbieter einsetzen, wenn du die eingebaute Zusammenfassungspipeline durch ein Plugin ersetzen möchtest. Session Reset (session.reset.mode: "daily"): Löscht den gesamten Gesprächsverlauf einmal täglich zu einer konfigurierten Uhrzeit. Auf ClawHosters-Instanzen standardmäßig aktiviert. Verhindert, dass lang laufende Konversationen unbegrenzt Kontext ansammeln. Für die Kostenkontrolle ist die Modellwahl wichtiger als Kontext-Tuning. Die clawhosters/-Modelle in deinem Plan (z.B. clawhosters/deepseek-chat oder clawhosters/gemini-2.5-flash-lite) sind kostenlos nutzbar und funktionieren gut für Routineaufgaben. Fallback-Modelle einrichten, damit günstigere Modelle einfache Anfragen übernehmen, Konversationen durch tägliche Session-Resets kürzer halten und Context Pruning nutzen, um aufgeblähte Tool-Outputs zu kürzen, das alles senkt die Kosten effektiver, als zu versuchen, die Kontextgröße hart zu begrenzen.Nachrichtenbasiertes Pruning (z.B. "nur die letzten N Nachrichten senden") ist ein häufig gewünschtes Feature, das es in OpenClaw noch nicht gibt. Es könnte in einer zukünftigen Version kommen. Bis dahin deckt die Kombination aus Context Pruning, Compaction und Session Reset die meisten Anwendungsfälle gut ab.

Ja. Die Konfiguration deiner Instanz (openclaw.json) wird automatisch zweimal täglich um 05:00 und 17:00 UTC gesichert. Das ist eine kostenlose Funktion, die in jeder Instanz enthalten ist, kein Add-on nötig. Die Backups erfassen deine LLM-Einstellungen, Kanal-Tokens, Persönlichkeit, Fähigkeiten, Zeitgesteuerte Jobs und alle anderen Konfigurationswerte.Die Aufbewahrung funktioniert gestaffelt: Alle Backups der letzten 7 Tage werden behalten, dazu ein Backup an der 14-Tage-Marke und eins an der 31-Tage-Marke. Alles älter als 37 Tage wird gelöscht. Manuelle Backups werden nie automatisch entfernt.Du kannst Konfigurations-Backups unter Einstellungen > Konfig-Backups in deinem Dashboard ansehen, vorab anschauen und wiederherstellen.

Gehe zu Einstellungen > Konfig-Backups, finde das gewünschte Backup und klicke auf das Wiederherstellen-Symbol. Du musst deinen Instanznamen eingeben, um zu bestätigen, da die Wiederherstellung deine aktuelle Konfiguration überschreibt und die Instanz neu startet. Die Wiederherstellung läuft im Hintergrund und dauert unter einer Minute.Vor der Wiederherstellung kannst du auf Vorschau klicken, um den Inhalt mit maskierten API-Schlüsseln zu sehen. Wenn du API-Schlüssel seit dem Backup rotiert hast, musst du sie nach der Wiederherstellung aktualisieren.Es ist ratsam, ein manuelles Backup deiner aktuellen Konfiguration zu erstellen, bevor du eine ältere wiederherstellst. So kannst du bei Bedarf zurückwechseln.

Konfigurations-Backups speichern nur die Konfigurationsdatei (openclaw.json). Sie sind leichtgewichtig (wenige KB), kostenlos und laufen automatisch. Nutze sie, um kaputte Konfigurationsänderungen rückgängig zu machen.Das Backup Add-on erstellt vollständige Server-Snapshots über Hetzner. Diese erfassen alles: Chatverlauf, hochgeladene Dateien, installierte Pakete, eigene Anpassungen und die Konfiguration. Es ist ein bezahltes Add-on und läuft einmal täglich.Wenn du nur eine Einstellung geändert hast und etwas kaputt ist, bringt dich ein Konfigurations-Backup in Sekunden zurück. Wenn du Daten oder Dateien wiederherstellen musst, brauchst du das Backup Add-on.

Ja. Gehe zu Einstellungen > Konfig-Backups und klicke auf Backup erstellen. Du kannst eine Beschreibung wie "Vor Wechsel zu GPT-5" hinzufügen, um es später leichter zu finden. Manuelle Backups werden dauerhaft aufbewahrt (sie werden nie automatisch gelöscht) und dienen als zuverlässige Speicherpunkte.

Ja. OpenClaw unterstützt mehrere Agenten auf einer einzelnen Instanz, jeder mit eigenem Workspace, eigener Persönlichkeit, Modellkonfiguration und Tool-Berechtigungen. Ein gängiges Muster ist ein "Owner"-Agent mit vollen Fähigkeiten und ein "Guest"-Agent mit eingeschränktem Zugriff für Familie oder Freunde.Jeder Agent braucht: Eine eindeutige id im agents.list-Array (z.B. "cortex", "clawra") Einen eigenen Workspace mit SOUL.md, AGENTS.md und anderen Persönlichkeitsdateien (z.B. ~/.openclaw/workspace-cortex/, ~/.openclaw/workspace-clawra/) Ein eigenes agentDir für Status und Sessions. OpenClaw erstellt diese automatisch unter ~/.openclaw/agents/<agentId>/. Teile nie ein agentDir zwischen Agenten. Du kannst einschränken, was jeder Agent tun darf, mit tools.allow- und tools.deny-Listen. Zum Beispiel könnte ein Guest-Agent nur ["read", "browser"] bekommen und ["exec", "write", "edit", "cron", "sessions_spawn"] verweigert werden. Füge "sandbox": { "mode": "all", "scope": "agent" } hinzu, um einen Guest-Agenten auf seinen eigenen Workspace zu beschränken.Setze "default": true bei einem Agenten, damit nicht zugeordnete Nachrichten dorthin gehen. Nutze bindings, um Nachrichten von bestimmten Kanälen oder Accounts zu bestimmten Agenten zu leiten.Um Workspace-Dateien (.md-Dateien) für jeden Agenten hinzuzufügen, kannst du entweder per SSH verbinden und sie manuell erstellen, oder deinen Hauptagenten per Telegram bitten, die Dateien zu erstellen (z.B. "Erstelle ~/.openclaw/workspace-clawra/SOUL.md mit diesem Inhalt: ...").Konfiguriere die Agenten über Einstellungen > Config-Editor in deinem Dashboard. Erstelle vorher ein Konfig-Backup.Sub-Agent-Kontext: Wenn ein Agent einen anderen als Sub-Agent startet, bekommt der Sub-Agent nur AGENTS.md und TOOLS.md aus seinem Workspace. SOUL.md, USER.md und IDENTITY.md werden nicht geladen. Wenn der Sub-Agent bestimmten Kontext für eine Aufgabe braucht, gib ihn in der Aufgabenbeschreibung mit an.

OpenClaw-Agenten kommunizieren nicht über Telegram-DMs oder indem sie die Bots der anderen anschreiben. Stattdessen nutzen sie das eingebaute Sub-Agent-Dispatch-System. Ein Agent startet einen anderen im Hintergrund, gibt ihm eine Aufgabe und bekommt das Ergebnis zurück, wenn er fertig ist.Schnellster Weg zum Ausprobieren: Tippe das in deinen Chat mit dem Hauptagenten: text Copy /subagents spawn <agentId> <Aufgabenbeschreibung> Zum Beispiel: /subagents spawn hst Schreibe einen LinkedIn-Post über KI-AutomatisierungstrendsDas startet den Ziel-Agenten in einer isolierten Hintergrund-Session. Wenn er fertig ist, wird das Ergebnis in dein Gespräch gepostet. Es ist nicht-blockierend, dein Hauptagent kann also in der Zwischenzeit weiterarbeiten.Natürliche Sprache funktioniert auch. Sag deinem Hauptagenten z.B. "Lass HST Wettbewerberpreise recherchieren" oder "Gib Oscar die Aufgabe: prüfe meinen Posteingang." Wenn deine AGENTS.md die Teamstruktur und Sub-Agent-Nutzung beschreibt, sollte der Agent die Absicht erkennen und intern sessions_spawn verwenden.Config-Voraussetzungen (alle werden benötigt): Der delegierende Agent braucht subagents.allowAgents mit den Ziel-Agenten: json { "id": "main", "subagents": { "allowAgents": ["hst", "oscar", "research"] } } Agent-zu-Agent-Kommunikation aktivieren: json "tools": { "agentToAgent": { "enabled": true } } Jeder Ziel-Agent braucht sein eigenes Workspace-Verzeichnis mit mindestens einer AGENTS.md-Datei. Häufiger Fehler: Versuchen, Telegram-Nachrichten zwischen Bots zu senden. Telegram-Bots können sich nicht gegenseitig DMs schicken. Der /subagents spawn-Befehl ist der richtige Ansatz.Tipp: Sub-Agenten laden nicht die vollständigen Persönlichkeitsdateien des anderen (SOUL.md, USER.md). Sie bekommen nur AGENTS.md und TOOLS.md. Wenn der Sub-Agent bestimmten Kontext braucht, gib ihn in der Aufgabenbeschreibung mit an.

Wenn du einen eigenen Provider hinzufügst (z.B. Z.AI, Kimi oder einen anderen BYOK-Provider), ist die Modellliste in deiner Config statisch. OpenClaw fragt nicht bei der Provider-API nach, um neue Modelle zu entdecken. Wenn der Provider ein neues Modell veröffentlicht, musst du es manuell in deiner Config ergänzen.Um ein neues Modell hinzuzufügen, öffne Settings > Config Editor, finde deinen Provider unter models.providers und füge einen neuen Eintrag zum models-Array hinzu. Jedes Modell braucht mindestens eine id, einen name, den input-Typ, contextWindow und maxTokens. Die korrekten Modell-IDs und Context-Window-Größen findest du in der Dokumentation deines Providers.Die verwalteten clawhosters/-Modelle sind davon nicht betroffen. Die werden von ClawHosters aktualisiert, wenn neue Modelle zum verwalteten Pool hinzugefügt werden. Darum musst du dich nicht selbst kümmern.

ClawHosters verwaltet bestimmte Konfigurationsbereiche, damit deine Instanz mit dem Dashboard, den Health-Checks und dem Deployment-System funktioniert. Diese zu ändern macht Dinge kaputt.Ändere nicht den gateway-Bereich. Im Detail: gateway.mode muss auf "local" bleiben. Eine Änderung auf "remote" trennt das Gateway vom lokalen Docker-Netzwerk und macht alles kaputt. Die gateway.controlUi-Flags (allowInsecureAuth, dangerouslyDisableDeviceAuth, dangerouslyAllowHostHeaderOriginFallback) müssen auf true bleiben. Sie werden wegen der Architektur gebraucht (nginx Reverse Proxy + Cloudflare TLS). Die Namen klingen abschreckend, aber sie verringern deine Sicherheit nicht. Ohne sie verliert das Dashboard den Zugriff auf deine Instanz. gateway.auth.token ist dein Gateway-Zugangstoken. Lösche oder ändere ihn nicht, sonst verliert das Dashboard den Zugang. Ändere nicht den env-Bereich. Schlüssel wie LLM_PROXY_URL, OPENCLAW_API_ENDPOINT und LLM_MODE werden von ClawHosters gesetzt und steuern, wie deine Instanz sich mit unseren Managed Services verbindet. Änderungen können Abrechnung, Modell-Routing und Health-Checks stören.Ändere nicht den models.providers.clawhosters-Bereich. Dieser definiert die Managed Models in deinem Plan. Wenn du ihn entfernst oder änderst, funktionieren deine kostenlosen Managed Models nicht mehr.Alles andere kannst du frei konfigurieren: Agenten, Kanäle, Skills, Gedächtnis, Compaction, Session-Einstellungen, Cron-Jobs und mehr.

OpenClaw hat ein Sicherheitsfeature namens "Exec Approvals": Bevor dein Agent einen Shell-Befehl ausführt, muss er erst manuell bestätigt werden. In neueren OpenClaw-Versionen (ab 2026.3.31) wurde das Standardverhalten verschärft (bekanntes Issue), sodass plötzlich jeder Befehl eine Bestätigung braucht, auch wenn das vorher nicht der Fall war.Das kann auch nach einem Update passieren. Wenn deine Instanz auf eine neue OpenClaw-Version aktualisiert wird, werden manche Exec-Einstellungen auf restriktive Standardwerte zurückgesetzt. Falls deine Skills oder Befehle direkt nach einem Update nicht mehr funktionieren, ist das fast immer die Ursache.Das Knifflige: OpenClaw hat zwei Stellen, die das steuern, und es gilt immer die strengere Einstellung: tools.exec.* in der Config (über den Config-Editor im Dashboard) exec-approvals.json auf dem Server (eine separate Datei unter ~/.openclaw/) Einfachste Lösung über die Einstellungen: Gehe zu Einstellungen > Befehlsausführung. Setze Shell-Befehle auf „Alle erlauben" und Vor Ausführung fragen auf „Nie fragen". Das aktualisiert sowohl tools.exec.security als auch tools.exec.ask und greift sofort.Alternative über den Config Editor: Öffne Einstellungen > Config-Editor und füge unter tools hinzu: json Copy "tools": { "exec": { "security": "full", "ask": "off" } } security: "full" erlaubt alle Shell-Befehle, ask: "off" überspringt die Bestätigungsabfrage.Falls das allein nicht reicht, hat auch die zweite Ebene (exec-approvals.json) noch restriktive Werte. Diese Datei kann nur per SSH oder über ein Support-Ticket angepasst werden. Schreib uns, wenn du Hilfe brauchst.Session-Shortcut: Du kannst auch /exec security=full ask=off direkt in einem Chat mit dem Agenten eingeben. Das gilt allerdings nur bis zum nächsten Session-Reset.Hinweis: Wenn du Exec Approvals deaktivierst, kann dein Agent jeden Shell-Befehl ohne Rückfrage ausführen. Für die meisten privaten Setups ist das kein Problem, aber behalte es im Hinterkopf, besonders wenn andere Personen Zugang zu deinem Agenten haben.

Damit meint der Agent die eingebaute Web-Oberfläche von OpenClaw (Control UI), kein echtes Terminal auf deinem Computer. Je nach Kontext nennt der Agent sie auch "Web UI" oder "Companion App".So kommst du hin: Öffne deine Instanz im ClawHosters-Dashboard und klicke auf "Dashboard öffnen". Alternativ findest du die URL im Zugangsdaten-Dialog deiner Instanz (das Schlüssel-Symbol).Login: Du brauchst den Gateway-Token. Den findest du ebenfalls im Zugangsdaten-Dialog deiner Instanz im ClawHosters-Dashboard.Was du dort tun kannst: Offene Exec-Anfragen genehmigen oder ablehnen, aktive Sessions einsehen und Befehle direkt eingeben.Tipp: Für die meisten Einstellungen ist der Config-Editor im ClawHosters-Dashboard einfacher und sicherer als die Control UI. Die Control UI brauchst du hauptsächlich, wenn du offene Exec-Anfragen genehmigen willst oder direkt mit dem Agenten interagieren möchtest.

Addons (13)

Jeder Plan enthält kostenlose KI: Gemini 2.5 Flash Lite, DeepSeek R1, DeepSeek V3 und Kimi K2.5, mit täglichen und monatlichen Token-Limits. Kein API-Key nötig.Wenn du mehr Kapazität brauchst oder Modelle wie Claude oder GPT-4 nutzen willst, gibt es zwei Optionen: Managed-LLM-Pakete: Vorausbezahlte Token-Kontingente über ClawHosters. Drei Stufen (Eco, Standard, Premium) mit Paketgrößen von 3 € bis 70 €/Monat. Kein API-Key nötig. Details findest du in der LLM-Dokumentation. BYOK (Bring Your Own Key): Eigene API-Keys von jedem unterstützten Anbieter nutzen (Anthropic, OpenAI, Google, DeepSeek, Mistral, Groq oder OpenRouter). BYOK ist kostenlos. Du zahlst nur direkt bei deinem Anbieter.

Kommt darauf an, wie wichtig dir deine Daten sind. Das Backup-Add-on erstellt automatisch Snapshots deiner Instanz, mit 7, 30 oder 90 Tagen Aufbewahrung. Gespeichert wird alles auf Hetzner-Infrastruktur. Zusätzlich wird beim Pausieren deiner Instanz automatisch ein Snapshot erstellt. Auch ohne das Add-on hast du also ein grundlegendes Sicherheitsnetz.

Ja. Du kannst Add-ons jederzeit über das Dashboard hinzufügen oder entfernen. Die Abrechnung passt sich anteilig an. Du zahlst also nur, was du tatsächlich nutzt.

Nichts. BYOK ist kostenlos. Du zahlst nur die API-Kosten direkt bei deinem Anbieter (OpenAI, Anthropic oder wer auch immer). Deine Schlüssel werden verschlüsselt gespeichert und nie geloggt. Wenn du bereits API-Zugang hast oder einen bestimmten Anbieter brauchst, ist BYOK die richtige Wahl.

Öffne deine Instanz und gehe zum AI Setup-Tab. Du kannst zwischen den enthaltenen kostenlosen KI-Modellen (Gemini 2.5 Flash Lite, DeepSeek R1, DeepSeek V3, Kimi K2.5) und dem BYOK-Modus wechseln, bei dem du deinen eigenen API-Key von einem unterstützten Anbieter verwendest. Die Änderung wird innerhalb von Sekunden wirksam. Für Anbieter, die nicht im Dropdown sind, klicke auf "Add Custom Provider" im AI Setup-Tab, um jeden OpenAI-kompatiblen Anbieter direkt hinzuzufügen.

Ja. Klicke im AI Setup-Tab auf "Add Custom Provider", um jeden Anbieter mit einer OpenAI-kompatiblen API hinzuzufügen. Wähle aus Vorlagen (Featherless AI, Together AI, Fireworks AI, Ollama) oder nutze "Manual setup" für andere Anbieter. Trage die Base-URL, deinen API-Key und mindestens eine Model-ID ein. Nach dem Speichern kannst du den Anbieter direkt als Hauptmodell setzen.Für erweiterte Konfiguration (eigene Kostenwerte, Reasoning-Flags, etc.) kannst du den Provider-Block auch direkt unter Einstellungen > Config Editor bei models.providers bearbeiten.

Ja. Deine Instanz kann mehrere LLM-Anbieter parallel konfiguriert haben, zum Beispiel Claude (Anthropic) als Hauptmodell und Ollama auf deinem eigenen Server als Zusatzmodell. Du kannst in Gesprächen jederzeit ein bestimmtes Modell anfordern, z.B. "Benutze ollama/llama3.1:8b für diese Aufgabe". Falls dein lokales Modell gerade nicht erreichbar ist (z.B. Server aus), springt dein Agent automatisch auf das nächste verfügbare Modell zurück. So hast du Datenschutz für sensible Aufgaben und volle Power für den Rest. Die Einrichtung eines lokalen LLMs über ZeroTier ist in der Anleitung "Eigenes LLM zu Hause nutzen" erklärt.

Wenn du möchtest, dass dein Agent standardmäßig dein lokales Modell nutzt (z.B. für DSGVO-Konformität), melde dich beim Support. Wir setzen das Standardmodell dann auf dein lokales Modell um, z.B. auf ollama/llama3.1:8b. Dein Agent nutzt dann primär das lokale Modell und greift nur auf Cloud-Modelle zurück, wenn das lokale nicht erreichbar ist. Voraussetzung: ZeroTier muss eingerichtet sein und dein LLM-Server muss laufen. Details dazu in der ZeroTier-LLM-Anleitung.

Nein. Das Storage-Add-on ist eine separate Festplatte, die neben deinem Server eingebunden wird, keine Erweiterung der eingebauten. Die beiden haben unterschiedliche Aufgaben: Eingebaute Festplatte (40-160 GB je nach Tarif): Hier liegen das Betriebssystem, Docker, OpenClaw selbst und alle installierten Skill-Abhängigkeiten. Diese Systemdateien kannst du nicht verschieben. Storage-Add-on (dein zusätzliches Volume): Eine separate Festplatte für deine eigenen Dateien. Dokumente, Medien, Downloads, Projektdaten. In deinem Agenten erreichbar unter /app/data/customer-storage/. Wenn deine eingebaute Festplatte voll wird, liegt das meistens an Skill-Abhängigkeiten (Python-Pakete, KI-Modelle, etc.) und nicht an deinen eigenen Dateien. Du kannst deinem Agenten sagen, Dateien in /app/data/customer-storage/ zu speichern, damit die eingebaute Festplatte schlank bleibt. Schau dir auch die FAQ "Verbrauchen Skills Speicherplatz?" weiter unten an, um mehr darüber zu erfahren, was Speicher belegt.

Ja, und manchmal ziemlich viel. Wenn ein Skill Systemabhängigkeiten hat (Python-Pakete, CLI-Tools, Medien-Bibliotheken), werden diese beim ersten Start des Skills dauerhaft im Container installiert. Ein einzelner Skill mit vielen Abhängigkeiten kann 500 MB bis 2 GB Speicher verbrauchen.Das fällt besonders beim Budget-Tarif (40 GB) auf, wo der System-Overhead bereits einen erheblichen Teil belegt. Wenn du mehrere Skills mit Systemabhängigkeiten hast (z.B. Videoverarbeitung, Websuche oder Dokumenten-Skills), können die zusammen 3-6 GB verbrauchen.Das Deinstallieren eines Skills entfernt seine Konfiguration, aber nicht die installierten Systempakete. Um diesen Speicher komplett zurückzubekommen, müsstest du die Instanz neu aufsetzen (Rebuild), was alles löscht und neu startet.Um den Speicherverbrauch deiner Skills einzuschätzen, schau dir den Abhängigkeiten-Bereich im Skills-Tab an. Skills mit vielen aufgelisteten Abhängigkeiten belegen tendenziell mehr Speicher.

Die meisten Skill-Probleme liegen an fehlenden Abhängigkeiten. Viele Skills brauchen einen API-Key oder ein bestimmtes Add-on, um zu funktionieren. Zum Beispiel brauchen Skills mit Websuche einen konfigurierten Such-API-Key. Schau dir die Beschreibung des Skills im ClawHub an, dort stehen die Voraussetzungen. Wenn alles richtig aussieht, probiere "Doctor Fix" unter Einstellungen, Fehlerbehebung, um veraltete Plugin-Zustände zurückzusetzen.

Das Web-Hosting-Add-on öffnet Port 443 (HTTPS) auf deiner Instanz und leitet Traffic an Port 3000 in deinem Container weiter. Du kannst neben OpenClaw eine eigene Webanwendung betreiben, die unter einer ClawHosters-Subdomain mit automatischem SSL erreichbar wird. Das Add-on kostet 999 Claws/Monat. Für die Aktivierung musst du einen Sicherheitshinweis akzeptieren, weil das Bereitstellen einer Webanwendung die Angriffsfläche deiner Instanz vergrößert. Die komplette Einrichtung findest du in der Web-Hosting-Dokumentation.

Aktiviere das Web-Hosting-Add-on über die Add-ons-Seite in deinem Instanz-Dashboard. Sobald es aktiv ist, starte deine Webanwendung so, dass sie auf Port 3000 im Container lauscht. Sie wird dann unter der Subdomain deiner Instanz über HTTPS erreichbar. Nginx- oder SSL-Konfiguration ist nicht nötig. Du kannst auch deine eigene Domain verwenden. Details, Framework-Beispiele und Voraussetzungen findest du in der Web-Hosting-Dokumentation.

Billing (14)

Nein. Wenn du ein Monatsabonnement nutzt (was die meisten Nutzer tun), sind Claws optional. Du brauchst sie nur, wenn du die tägliche Abrechnung wählst oder dein kostenloses Managed-LLM-Nutzungslimit überschreitest. Monatsabonnements decken alles für die normale Nutzung ab.

Claws sind unsere interne Währung. Du kaufst ein Paket, und wir buchen täglich Claws für deine aktiven Dienste ab. Es gibt fünf Pakete: €10 (650 Claws), €20 (1.380 Claws, 6% Bonus), €40 (2.900 Claws, 12% Bonus), €80 (6.100 Claws, 17% Bonus) und €160 (13.000 Claws, 25% Bonus). Je größer das Paket, desto mehr Bonus-Claws bekommst du.

Wir akzeptieren alle gängigen Kredit- und Debitkarten über Stripe: Visa, Mastercard, American Express, Discover und mehr. Apple Pay und Google Pay werden ebenfalls unterstützt. Außerdem kannst du mit Kryptowährungen über Coinbase Commerce bezahlen (Bitcoin, Ethereum und andere gängige Coins).

Da deine Instanz sofort bereitgestellt wird, können wir keine Rückerstattungen anbieten. Mit dem Kauf verzichtest du auf das 14-tägige Widerrufsrecht gemäß § 356 Abs. 5 BGB. Falls etwas auf unserer Seite schiefgeht (z.B. ein Ausfall, den wir verursacht haben), melde dich bei uns. Wir schauen dann, ob wir dir eine Gutschrift geben können.

Deine Instanz wird automatisch pausiert. Wir warnen dich rechtzeitig: bei 3, 2 und 1 Tag Restguthaben. Nach der Pausierung hast du 3 Tage Zeit, um aufzuladen. Danach wird die Instanz endgültig gelöscht. Aber keine Sorge: Wir erstellen vorher automatisch einen Snapshot, damit deine Daten nicht einfach weg sind.

Jeden Tag um 01:00 Uhr Berliner Zeit (MEZ/MESZ) buchen wir Claws von deinem Guthaben ab, je nach Tier. Budget kostet 60 Claws/Tag, Balanced 105 Claws/Tag und Pro 175 Claws/Tag. Wenn du deine Instanz erst im Laufe des Tages erstellst, wird der erste Tag anteilig berechnet. Add-ons werden separat abgerechnet. Deinen Verbrauch kannst du jederzeit im Dashboard einsehen.

Beim Erstellen einer neuen Instanz fällt eine einmalige Einrichtungsgebühr in Claws an: 150 Claws für Budget, 300 für Balanced, 450 für Pro. Die deckt die Bereitstellungskosten deines Servers. Bei Monatsabos gibt es keine Einrichtungsgebühr.

Claws werden auf zwei Arten verbraucht. Nutzer mit täglicher Abrechnung haben einen festen täglichen Abzug je nach Tier (60/105/175 Claws pro Tag für Budget/Balanced/Pro), plus eventuelle Add-on-Kosten. Monatsabonnenten verbrauchen Claws nur, wenn sie ihr kostenloses Managed-LLM-Nutzungslimit überschreiten. In dem Fall wird der zusätzliche LLM-Verbrauch pro Token von deinem Claws-Guthaben abgezogen. Du kannst deinen gesamten Verbrauch im Dashboard verfolgen.

Das hängt von deinem Abrechnungsmodus ab. Nutzer mit täglicher Abrechnung: Deine Instanz wird komplett pausiert. Wir erstellen einen Snapshot deines Servers, dann wird der Server gelöscht, um Kosten zu stoppen. Du hast 3 Tage Zeit zum Aufladen. Danach wird der Snapshot dauerhaft gelöscht. Sobald du mehr Claws auflädst, wird die Instanz automatisch aus dem Snapshot wiederhergestellt. Monatsabonnenten: Wenn deine Claws für den Managed-LLM-Zusatzverbrauch aufgebraucht sind, funktionieren die zusätzlichen KI-Funktionen nicht mehr, bis du auflädst. Deine Instanz selbst läuft normal weiter, da sie durch dein Abonnement abgedeckt ist.

Dein Bot stoppt nicht, wenn du 100% deiner kostenlosen Managed-LLM-Tokens für den Tag erreicht hast. Stattdessen wechselt das System dazu, zusätzliche KI-Nutzung von deinem Claws-Guthaben abzuziehen. Wenn du Claws hast, läuft alles nahtlos weiter. Wenn du keine Claws hast, pausieren die zusätzlichen KI-Funktionen bis zum nächsten Tag, wenn deine kostenlosen Tokens zurückgesetzt werden. Deine Instanz selbst bleibt in jedem Fall online.

Ein paar Sachen helfen. Lange Konversationen sammeln Kontext an, das heißt jede neue Nachricht schickt den gesamten Verlauf an die KI. Nutze regelmäßig /new, um frische Konversationen zu starten. Deaktiviere Skills, die du gerade nicht brauchst, weil jeder Skill bei jeder Anfrage zusätzlichen Overhead erzeugt. Prüfe, ob du Cron-Jobs hast, die häufig laufen, denn die verbrauchen ebenfalls Tokens. Und wenn du ein Modell mit großem Kontextfenster nutzt, überlege ob ein Modell mit kleinerem Fenster reicht, falls du die Extra-Kapazität nicht brauchst.

Bei monatlichen Abonnements kannst du direkt in den Instanzeinstellungen im Dashboard auf ein höheres Tier wechseln. Gehe zu deiner Instanz, öffne die Einstellungen und wähle ein höheres Tier aus. Das Upgrade dauert 2-3 Minuten - deine Instanz ist kurz offline, während der Server durch einen neuen mit mehr Ressourcen ersetzt wird. Deine Daten und Konfiguration bleiben dabei vollständig erhalten. Bei tagesabgerechneten Instanzen ist ein Tarifwechsel nicht möglich. Um das Tier bei täglicher Abrechnung zu wechseln, erstelle eine neue Instanz auf dem gewünschten Tarif und lösche die alte.

Nein. Die Server-Infrastruktur unterstützt keinen Wechsel von einem größeren auf ein kleineres Tier. Wenn du auf ein niedrigeres Tier wechseln möchtest, müsstest du deine aktuelle Instanz kündigen und eine neue auf dem gewünschten Tier erstellen. Das bedeutet, dass du deine Bot-Konfiguration neu einrichten musst (LLM-Key, Telegram-Bot, Persönlichkeit, etc.). Deine alten Instanzdaten werden nicht automatisch übernommen.

Wenn ein Gutschein auf dein Konto angewendet wurde und du ihn entfernen möchtest, kontaktiere support@clawhosters.com. Gutscheine sind mit Abrechnungsdaten verknüpft und können nicht über das Dashboard entfernt werden. Gib deine Konto-E-Mail und den betreffenden Gutschein an, dann kümmern wir uns darum.

Security (13)

Alle Übertragungen sind mit TLS/SSL verschlüsselt, gespeicherte Daten mit AES-256. Die Server stehen in deutschen Tier-3+ Rechenzentren mit physischer Zugangskontrolle. Wir führen regelmäßige Sicherheitsaudits durch, und jeder im Team, der mit Daten arbeitet, ist entsprechend geschult.

Ja. Alle Daten werden in Deutschland gespeichert und verlassen die EU nicht. Du hast sämtliche Rechte nach DSGVO, also Auskunft, Berichtigung, Löschung und Datenübertragbarkeit. Unser Datenschutzkontakt ist unter support@clawhosters.com erreichbar.

Nur du. Unser Support-Team kann bei Bedarf Server-Metadaten einsehen, aber an deine Anwendungsdaten kommt niemand ohne deine ausdrückliche Erlaubnis. Drittanbieter wie Hetzner, Stripe und Coinbase verarbeiten nur die Daten, die sie für ihren Teil des Dienstes brauchen.

Jede Instanz läuft in einem eigenen isolierten Docker-Container mit strikten Ressourcenlimits. Firewall-Regeln blockieren unerwünschten Traffic standardmäßig, und Brute-Force-Schutz sichert den SSH-Zugang. Falls du SSH-Zugang brauchst, ist der verfügbar und per Key-basierter Authentifizierung gesichert.

Deine Daten werden innerhalb von 30 Tagen nach Kündigung gelöscht. Vorher kannst du einen vollständigen Datenexport anfordern. Rechnungs- und Zahlungsdaten müssen wir 10 Jahre aufbewahren, das ist deutsches Steuerrecht. Server-Logs werden nach 90 Tagen automatisch gelöscht.

Du kannst dich mit E-Mail und Passwort oder über Google Sign-In anmelden. Wir empfehlen ein starkes, individuelles Passwort für dein ClawHosters-Konto.

Kontaktiere unser Support-Team unter support@clawhosters.com und beantrage die Kontolöschung. Deine Daten werden innerhalb von 30 Tagen entfernt. Rechnungs- und Zahlungsdaten müssen wir gemäß deutschem Steuerrecht 10 Jahre aufbewahren, aber alle persönlichen und Instanz-Daten werden vollständig gelöscht.

Ja, mit dem Web-Hosting-Add-on. Es öffnet Port 443 (HTTPS) auf deiner Instanz und leitet Traffic an Port 3000 in deinem Container weiter. Du kannst jede Webanwendung betreiben, die auf Port 3000 lauscht, und sie wird unter einer ClawHosters-Subdomain oder deiner eigenen Domain mit automatischem SSL erreichbar. Das Add-on erfordert die Annahme eines Sicherheitshinweises, weil das Bereitstellen einer Webanwendung die Angriffsfläche deiner Instanz vergrößert. Details und Preise findest du in der Web-Hosting-Dokumentation.Ohne das Web-Hosting-Add-on werden keine zusätzlichen Ports geöffnet. Jede Instanz ist durch mehrere Firewall-Schichten geschützt, die nur die für OpenClaw nötigen Ports zulassen.

Melde dich beim Support mit deiner aktuellen und deiner neuen E-Mail-Adresse. Wir müssen deine Identität verifizieren, bevor wir die Änderung durchführen können.

Wahrscheinlich nicht. Der eingebaute Befehl openclaw security audit prüft die Konfiguration von innerhalb des Docker-Containers. Er kennt die Infrastruktur-Schichten nicht, die ClawHosters außenherum verwaltet, und meldet deshalb Dinge, die bereits abgesichert sind.Häufige Fehlalarme auf ClawHosters: "Gateway bound to 0.0.0.0" - Das ist Absicht. Port 18789 ist nur innerhalb des Docker-Netzwerks erreichbar (nicht auf dem Host oder dem Internet gemappt). Nginx läuft in einem separaten Container und leitet Traffic an das Gateway weiter, deshalb muss es auf allen Interfaces lauschen. Wenn du das auf Loopback änderst, geht deine Instanz kaputt, weil Nginx das Gateway nicht mehr erreichen kann. Ändere gateway.bind nicht. "No firewall configured" - Es gibt tatsächlich drei Firewall-Schichten, die deine Instanz schützen: eine Hetzner Cloud Firewall (blockiert Traffic bevor er den VPS erreicht), iptables-Regeln auf dem VPS-Host und fail2ban für Brute-Force-Schutz. Der Agent kann davon nichts sehen, weil er im Container läuft. "Running as root" - Standard für Docker-Container. Der Docker-Socket ist nicht eingebunden, es gibt also keinen Container-Escape-Vektor. "Auth not enabled" oder "Auth not explicitly configured" - Auth IST konfiguriert. ClawHosters nutzt Token-basierte Authentifizierung (auth.mode: "token"). Der Key "enabled": true, den manche Agenten hinzufügen wollen, existiert im OpenClaw-Auth-Schema nicht. "Dangerous config flags" - Siehe die FAQ unten zu Sicherheitswarnungen in den Logs. Diese Flags sind nötig, damit der ClawHosters-Dashboard-Proxy funktioniert. Dinge aus dem Audit, die du selbst konfigurieren kannst: Tool-Denylist - Schränke ein, welche Befehle dein Agent ausführen darf. Füge "tools": {"deny": ["gateway", "cron", "sessions_spawn"]} im Config Editor hinzu. Dateisystem-Scoping - Beschränke Dateizugriffe auf das Workspace-Verzeichnis. Füge "tools": {"fs": {"workspaceOnly": true}} im Config Editor hinzu. Telegram-Allowlist - Sperre deinen Bot auf deine Chat-ID. Setze channels.telegram.allowFrom auf deine Telegram-User-ID im Config Editor. Details zu unserem Netzwerksicherheits-Setup findest du in der Netzwerksicherheit-Dokumentation.

Nein. Ändere gateway.bind nicht. ClawHosters betreibt Nginx als Reverse Proxy in einem separaten Docker-Container. Nginx verbindet sich über das interne Docker-Netzwerk mit dem OpenClaw-Gateway. Wenn das Gateway nur auf Loopback (127.0.0.1) lauscht, kann Nginx es nicht erreichen, weil jeder Container seinen eigenen Netzwerk-Namespace hat.Wenn du diese Einstellung änderst, reagiert deine Instanz nicht mehr auf Web-Anfragen und die Health-Checks schlagen fehl. Das ClawHosters-Dashboard und jeder Browser-Zugang funktionieren dann nicht mehr.Port 18789 ist nicht auf dem Host gemappt und nicht aus dem Internet erreichbar. Er ist nur innerhalb des Docker-Netzwerks zugänglich. Zusammen mit der Token-Authentifizierung und unserer dreischichtigen Firewall ist das Gateway nicht öffentlich erreichbar, obwohl es innerhalb des Containers auf 0.0.0.0 bindet.Falls dein Agent diese Einstellung bereits geändert hat, öffne ein Support-Ticket und wir setzen sie für dich zurück.

Ab v2026.4.2 ist der Standard-Exec-Modus "full" mit Ask auf "off". Neue Instanzen laufen also direkt im YOLO-Modus, und deine Agenten können jeden Shell-Befehl ohne Genehmigungsabfrage ausführen.Wenn du deine Instanz vor v2026.4.2 erstellt hast, bleiben deine bestehenden Exec-Einstellungen erhalten. Beim Upgrade ändert sich nichts automatisch. So stellst du auf YOLO-Modus um:Über das Dashboard (am einfachsten): Gehe zu Einstellungen > Befehlsausführung. Setze Shell-Befehle auf „Alle erlauben" und Vor Ausführung fragen auf „Nie fragen". Änderungen greifen sofort.Über den Config Editor: Öffne Einstellungen > Config Editor und setze tools.exec.security auf "full" und tools.exec.ask auf "off". Das vollständige JSON-Beispiel findest du in der Konfigurations-FAQ.Per SSH (für Fortgeschrittene): Verbinde dich mit deiner Instanz und bearbeite ~/.openclaw/exec-approvals.json. Setze die Defaults auf: json Copy "defaults": { "security": "full", "ask": "off" } Dann sende ein Config-Reload-Signal oder starte die Instanz neu.Wenn du lieber etwas Kontrolle behalten willst, klicke auf "Always allow" bei einzelnen Befehlen im Genehmigungsdialog. Diese Genehmigungen werden seit OpenClaw 2026.4.1 zuverlässig zwischen Sessions gespeichert.Der Allowlist-Modus ist weiterhin sinnvoll, wenn Gast-Agenten oder nicht vertrauenswürdige Nutzer deine Instanz mitbenutzen. Für eine persönliche Instanz, der du vertraust, ist der YOLO-Modus die praktische Wahl.

Du siehst vielleicht eine Warnung wie diese im Logs-Tab: text Copy security warning: dangerous config flags enabled: gateway.controlUi.allowInsecureAuth=true, gateway.controlUi.dangerouslyAllowHostHeaderOriginFallback=true, gateway.controlUi.dangerouslyDisableDeviceAuth=true Das ist auf ClawHosters völlig normal und erwartet. Diese Einstellungen werden von unserem Bereitstellungssystem gesetzt, damit das Web-UI über den ClawHosters-Dashboard-Proxy funktioniert. Ohne sie könnte die browserbasierte Oberfläche keine Verbindung zu deiner Instanz herstellen.Du musst nichts dagegen unternehmen. Die Warnung ist unbedenklich. Deine Instanz ist weiterhin durch unsere Firewall, Netzwerkisolierung und Authentifizierungsebenen geschützt. Die Warnung existiert, weil OpenClaw auch für den Betrieb in lokalen Netzwerken konzipiert ist, wo diese Einstellungen ungewöhnlich wären.

Troubleshooting (29)

Schau zuerst im Logs-Tab deines Dashboards nach Fehlermeldungen. Das zeigt dir meistens direkt, was schiefläuft. Wenn du etwas Offensichtliches findest, behebe es in deiner Konfiguration. Falls nicht, gehe in die Einstellungen und öffne den Bereich Fehlerbehebung. Probiere diese Schritte der Reihe nach: Config reparieren scannt deine Konfiguration auf häufige Probleme und behebt sie automatisch. Doctor Fix führt eine Diagnose im Container durch und behebt veraltete Plugin-Zustände. Nicht unterbrechend, deine Sitzungen bleiben aktiv. Gateway neustarten lädt den Gateway-Prozess neu, ohne den Container neu zu starten. Ebenfalls nicht unterbrechend, dauert etwa 15 Sekunden. Container neustarten ist die letzte Option. Dabei werden aktive Sitzungen beendet und es dauert etwa 60 Sekunden. Wenn nichts davon hilft, erstelle ein Support-Ticket und füge die Log-Ausgabe aus dem Logs-Tab bei.

Klicke auf der Login-Seite auf "Passwort vergessen" und gib deine E-Mail-Adresse ein. Du bekommst dann einen Link zum Zurücksetzen, der 24 Stunden gültig ist. Falls die E-Mail nicht ankommt oder etwas anderes schiefgeht, schreib an support@clawhosters.com. Wir müssen dann kurz deine Identität verifizieren, bevor wir das Passwort manuell zurücksetzen.

Das passiert, wenn dein Claws-Guthaben aufgebraucht ist. Das System pausiert die Instanz automatisch, damit keine unerwarteten Kosten entstehen. Um wieder loszulegen, lade dein Guthaben auf und klicke im Dashboard auf "Fortsetzen." Deine Daten bleiben 3 Tage lang als Snapshot gesichert. Danach wird die Instanz endgültig gelöscht, also warte nicht zu lange.

Die meisten Instanzen sind in unter 60 Sekunden fertig. Wenn es bei dir länger dauert, liegt das wahrscheinlich an einem kurzfristigen Kapazitätsengpass auf unserer Seite. Warte ein paar Minuten und aktualisiere die Statusseite im Dashboard. Das System erkennt hängende Bereitstellungen automatisch und startet sie bei Bedarf neu.

Der häufigste Grund ist eine Instanz oder ein Add-on, das noch aktiv läuft. Schau im Dashboard nach, welche Dienste gerade laufen. Die tägliche Abrechnung erfolgt um 01:00 Uhr Berliner Zeit (MEZ/MESZ) für alle aktiven Services. Im Transaktionsverlauf siehst du genau, was wann abgebucht wurde. Falls trotzdem etwas nicht stimmt, melde dich beim Support und wir klären das.

Das kann verschiedene Ursachen haben. Am häufigsten blockieren Cron-Jobs die Nachrichten-Warteschlange. Wenn du geplante Aufgaben laufen hast, können diese die Nachrichtenverarbeitung aufhalten. Schau im Logs-Tab nach den Verarbeitungszeiten, um zu sehen, wo die Verzögerung liegt.Lange Konversationen verlangsamen ebenfalls alles. Je mehr Kontext sich über viele Nachrichten ansammelt, desto länger braucht jede neue Antwort, weil das Modell den gesamten Verlauf verarbeitet. Nutze den /new-Befehl, um eine neue Konversation zu starten, und schau ob das hilft.Prüfe außerdem die Statusseite deines LLM-Anbieters auf Ausfälle. Und bedenke, dass die Modellwahl eine Rolle spielt. Günstigere Modelle sind nicht automatisch schneller. Gemini Flash und Deepseek antworten tendenziell schnell, während größere Modelle naturgemäß mehr Zeit brauchen.

Passe deine System-Instruktionen an und sei konkreter bei dem, was du erwartest. Eine niedrigere Temperatur macht die Antworten fokussierter und weniger kreativ. Falls die Antworten immer noch nicht passen, wechsle zu einem stärkeren Modell. Prüfe auch, ob dein Kontextfenster für die Länge deiner Konversationen ausreicht.

Konfigurationsänderungen werden per Live-Reload angewendet. Wenn eine fehlerhafte Konfiguration die Instanz zum Absturz bringt, gehe in die Einstellungen und öffne den Bereich Fehlerbehebung. Nutze "Config reparieren", um häufige Konfigurationsprobleme automatisch zu erkennen und zu beheben. Falls das nicht hilft, schau im Logs-Tab nach der genauen Fehlermeldung.Häufige Ursachen sind ein ungültiges API-Schlüssel-Format, ein nicht unterstützter Modellname oder fehlerhaftes JSON in den erweiterten Einstellungen. Du kannst auch "Doctor Fix" ausprobieren, das veraltete Plugin-Zustände behebt, ohne die Instanz zu unterbrechen.

Die Funktion "Auf Standardwerte zurücksetzen" im Dashboard setzt deine gesamte Konfiguration auf den Ausgangszustand zurück. Alle individuellen Einstellungen (Modellwahl, Skills, Umgebungsvariablen, System-Prompt, Cron-Jobs, Messenger-Konfiguration) gehen dabei verloren. Diese Aktion lässt sich nicht rückgängig machen.Falls du ein Backup hattest, bevor du zurückgesetzt hast: Gehe zum Backups-Tab in deinem Dashboard und stelle das Backup wieder her, das vor dem Reset erstellt wurde. Prüfe die Zeitstempel sorgfältig. Backups, die nach dem Reset erstellt wurden, enthalten den leeren Zustand.Falls du kein Backup hattest: Du musst deine Einstellungen manuell neu konfigurieren. Gehe zu den Einstellungen und richte dein Modell, deine Skills und deine Messenger-Verbindungen neu ein.Tipp für die Zukunft: Aktiviere das Backup-Add-on, bevor du größere Änderungen an deiner Konfiguration vornimmst. So hast du immer einen Wiederherstellungspunkt. Du findest das Backup-Add-on im Backups-Tab deines Dashboards.

Das Dashboard zeigt "Unhealthy" an, wenn der Health-Check deine Instanz nicht erreichen kann. Das bedeutet meistens, dass der Container hängt oder überlastet ist. Gehe in die Einstellungen und öffne den Bereich Fehlerbehebung. Starte mit "Doctor Fix" (nicht unterbrechend). Wenn das nicht hilft, probiere "Gateway neustarten." Als letzte Option nutze "Container neustarten" (das beendet aktive Sitzungen).Falls die Instanz nach all diesen Schritten weiterhin als unhealthy angezeigt wird, erstelle ein Support-Ticket und füge die Log-Ausgabe aus dem Logs-Tab bei.

Du findest diese unter Einstellungen im Bereich Fehlerbehebung: Config reparieren: Scannt deine Konfiguration auf häufige Probleme und behebt sie automatisch. Kann die Instanz kurz neu starten. Doctor Fix: Führt eine Diagnose im Container durch. Behebt veraltete Plugins, stellt Kanalverbindungen wieder her. Nicht unterbrechend, deine Sitzungen bleiben aktiv. Gateway neustarten: Lädt den Gateway-Prozess neu, ohne den Container neu zu starten. Nicht unterbrechend, dauert etwa 15 Sekunden. Guter erster Schritt bei Verbindungsproblemen. Container neustarten: Vollständiger Container-Neustart. Unterbrechend, beendet aktive Sitzungen. Nur als letzte Option nutzen. Dauert etwa 60 Sekunden. Führt danach automatisch Doctor Fix aus. Session-Sperren löschen: Entfernt veraltete Lock-Dateien. Nutze das, wenn deine Instanz eingefroren wirkt, aber der Status "Running" anzeigt. Gerät genehmigen: Genehmigt CLI-Pairing-Anfragen von deinem Terminal.

Das bedeutet, dass dein LLM-Anbieter Anfragen ablehnt, weil du deren Rate-Limits überschritten hast. Das ist kein ClawHosters-Problem. Es ist ein Limit, das dein API-Anbieter (Anthropic, OpenAI usw.) basierend auf deinem Konto-Tier setzt.Sowohl Anthropic als auch OpenAI nutzen ein Stufen-System, bei dem neue Konten mit sehr niedrigen Limits starten. Ein Tier-Upgrade ist meistens die Lösung.Anthropic (Claude) Tiers Anthropic hat 4 Nutzungsstufen. Tier-Upgrades passieren automatisch, sobald du genug Guthaben auf console.anthropic.com kaufst. Tier 1 ($5 Guthaben): 50 Anfragen/Min, 30.000 Input-Tokens/Min Tier 2 ($40 Guthaben): 1.000 Anfragen/Min, 450.000 Input-Tokens/Min Tier 3 ($200 Guthaben): 2.000 Anfragen/Min, 800.000 Input-Tokens/Min Tier 4 ($400 Guthaben): 4.000 Anfragen/Min, 2.000.000 Input-Tokens/Min Der Sprung von Tier 1 zu Tier 2 bedeutet 20x mehr Kapazität. Wenn du Rate-Limits bei Claude triffst, löst ein Upgrade auf Tier 2 für insgesamt $40 Guthaben das Problem fast immer.OpenAI (GPT) Tiers OpenAI hat 5 Nutzungsstufen. Anders als bei Anthropic gibt es bei OpenAI zusätzlich eine Wartezeit (Tage seit der ersten Zahlung), bevor du aufsteigen kannst. Tier 1 ($5 bezahlt): 500 Anfragen/Min, 30.000 Tokens/Min (GPT-4o) Tier 2 ($50 bezahlt + 7 Tage): 5.000 Anfragen/Min, 450.000 Tokens/Min Tier 3 ($100 bezahlt + 7 Tage): 5.000 Anfragen/Min, 800.000 Tokens/Min Tier 4 ($250 bezahlt + 14 Tage): 10.000 Anfragen/Min, 2.000.000 Tokens/Min Tier 5 ($1.000 bezahlt + 30 Tage): 10.000 Anfragen/Min, 30.000.000 Tokens/Min OpenAIs Tier 1 erlaubt mehr Anfragen pro Minute (500 vs. Anthropics 50), aber das Token-pro-Minute-Limit ist ähnlich eng. Der Sprung zu Tier 2 ($50 + 7 Tage Wartezeit) bringt dir 10x mehr Kapazität. Verwalte deinen Tier auf platform.openai.com unter Settings.OpenAI Codex OAuth (ChatGPT-Abo) Wenn du dich per OpenAI Codex OAuth angemeldet hast (also über dein ChatGPT Plus/Pro-Abo statt mit einem API Key), gelten andere Rate-Limits. OAuth-Tokens haben in externen Tools wie OpenClaw niedrigere Limits als direkte API Keys. Das bedeutet: Codex kann bei dir in der App noch funktionieren, während OpenClaw schon ans Limit stößt.Der Grund: OpenAI unterscheidet zwischen der Nutzung innerhalb ihrer eigenen Apps (Codex CLI, ChatGPT) und der Nutzung über OAuth in Drittanbieter-Tools. Für Drittanbieter sind die Limits strenger.Wenn du OAuth nutzt und Rate-Limits bekommst, hast du drei Optionen: Fallback-Modelle konfigurieren: Nutze die inkludierten Managed Models (z.B. clawhosters/deepseek-reasoner) als Fallback, damit dein Agent weiterarbeiten kann, wenn OAuth ans Limit kommt. Auf einen API Key wechseln: Ein OpenAI API Key (platform.openai.com) hat deutlich höhere Limits als OAuth. Trage ihn als openai-Provider ein statt openai-codex. Nutzung reduzieren: Weniger gleichzeitige Agenten, Cron-Jobs und Hintergrund-Tasks verringern den Token-Verbrauch pro Minute. Wichtig: Modelle mit dem Prefix openai/ brauchen einen API Key. Modelle mit openai-codex/ nutzen OAuth. Wenn du nur OAuth hast, funktionieren openai/-Modelle nicht als Fallback, weil kein API Key vorhanden ist. Nutze stattdessen clawhosters/-Modelle als Fallback.Andere Anbieter Google (Gemini), DeepSeek und OpenRouter haben ebenfalls Rate-Limits, aber die sind auf Einsteiger-Niveau in der Regel großzügiger. Prüfe das Dashboard deines Anbieters für die genauen Werte.Was du jetzt tun kannst Prüfe deinen Tier in der Console deines Anbieters (console.anthropic.com oder platform.openai.com) Upgrade deinen Tier, indem du mehr Guthaben kaufst, falls du auf Tier 1 bist Füge ein Fallback-Modell hinzu im Einstellungen-Tab. Dein Plan enthält kostenlose Modelle (Gemini 2.5 Flash Lite, DeepSeek R1, DeepSeek V3), die automatisch einspringen, wenn dein Hauptmodell an Rate-Limits stößt. Ohne Fallback scheitert der Agent einfach, statt auf ein Backup umzuschalten.

Dieser Fehler kommt von der ClawHub-Registry, nicht von ClawHosters. ClawHub begrenzt, wie viele Installationsanfragen von derselben IP-Adresse in kurzer Zeit kommen dürfen. Da deine Instanz auf einem VPS läuft, teilt sie sich möglicherweise einen IP-Bereich mit anderen Nutzern, wodurch das Limit schneller erreicht wird.Warte etwa 5 Minuten und versuche dann, den Skill erneut über den Skills-Tab zu installieren. Das Rate-Limit setzt sich nach einer kurzen Wartezeit zurück. Wenn es nach mehreren Versuchen weiterhin fehlschlägt, erstelle ein Support-Ticket und wir installieren den Skill manuell für dich.Hinweis: Das grüne "Skill found"-Häkchen im Installationsdialog bestätigt nur, dass das URL-Format korrekt ist. Es prüft nicht, ob der Skill in dem Moment tatsächlich herunterladbar ist. Du kannst also "Skill found" sehen und trotzdem beim eigentlichen Installieren ein Rate-Limit treffen.

Manche ClawHub-Skills brauchen nach der Installation noch zusätzliche Einrichtung. Schau auf der Skill-Seite auf clawhub.ai nach Anleitungen. Häufige Punkte: Umgebungsvariablen: Manche Skills brauchen API-Keys oder Konfigurationswerte. Gehe zum Skills-Tab, finde den Skill und prüfe, ob erforderliche Umgebungsvariablen aufgelistet sind. Du kannst sie direkt im Dashboard setzen. Abhängigkeiten: Manche Skills benötigen Systempakete (wie ein CLI-Tool oder eine Python-Bibliothek). Der Skills-Tab zeigt einen "Dependencies"-Bereich mit Installationsbuttons für jede Abhängigkeit. Klicke auf den Button und warte, bis die Installation abgeschlossen ist. Neustart nötig: Nach der Installation eines Skills mit Abhängigkeiten, probiere "Gateway neustarten" in den Einstellungen, damit die Änderungen übernommen werden. Falls der Skill installiert und aktiviert ist, aber trotzdem nicht reagiert, schau im Logs-Tab nach Fehlermeldungen, die den Skill-Namen erwähnen.

Mehrere Dinge teilen sich den Speicher deiner Instanz, und das meiste davon ist systemseitig, nicht deine Daten. Hier ist die typische Aufteilung für den Budget-Tarif (40 GB): OpenClaw Docker-Image (~11 GB). Die Basis-Anwendung mit allen Abhängigkeiten. Skill-Abhängigkeiten (variiert, kann 2-6 GB sein). Skills, die Systempakete brauchen (Python-Bibliotheken, CLI-Tools, Medien-Tools), installieren diese dauerhaft im Container. Je mehr Skills du hinzufügst, desto mehr wächst das. System-Reserve (5 GB). Eine reservierte Datei als Notfall-Puffer, falls die Festplatte voll wird. Playwright-Browser (~650 MB). Vorinstalliert für Web-Browsing- und Automatisierungs-Skills. Deine Daten (Sitzungen, Gedächtnis, Konfiguration). Normalerweise klein, oft unter 100 MB. Update-Backup-Images. Nach einem OpenClaw-Update wird ein Backup der vorherigen Version vorübergehend aufbewahrt. Um zu prüfen, was Platz verbraucht, öffne den Datei-Explorer-Tab in deinem Dashboard. Er zeigt deine Dateien und die gesamte Speicherauslastung. Falls du SSH-Zugang aktiviert hast, kannst du du -h --max-depth=1 / auf dem Server ausführen für eine Aufschlüsselung nach Verzeichnissen.Um Platz freizugeben: Entferne Skills, die du nicht nutzt. Das Deinstallieren eines Skills gibt die bereits installierten Systempakete nicht zurück, verhindert aber weiteres Wachstum. Ein Rebuild gibt dir einen sauberen Neustart (du musst dann alles neu konfigurieren). Alte Sitzungen aufräumen. Führe openclaw sessions cleanup aus, um alte Konversationsdaten zu löschen. Kontaktiere den Support. Wir können nach übrig gebliebenen Backup-Images oder anderem freimachbarem Speicher auf deiner Instanz schauen. Wenn die Auslastung regelmäßig über 80% liegt, ziehe ein Upgrade auf den Balanced-Tarif (80 GB) in Betracht. Siehe Ressourcen-Limits verstehen für Tarif-Details.

Wenn du deinen Assistenten bittest, dich an etwas zu erinnern, erstellt er einen Cron-Job (eine geplante Aufgabe). Damit die Erinnerung tatsächlich als Nachricht bei dir ankommt, muss der Cron-Job die richtige Konfiguration haben. Konkret braucht er ein "agentTurn"-Payload mit "announce"-Zustellmodus. Wenn dein Assistent stattdessen einen "systemEvent"-Job erstellt, läuft die Erinnerung still im Hintergrund ab, ohne dir eine Benachrichtigung zu schicken.Ob dein Assistent das richtig einrichtet, hängt vom KI-Modell ab. Leichtgewichtige Modelle (wie Gemini Flash Lite) kennen die korrekte Konfiguration für Erinnerungen oft nicht. Leistungsstärkere Modelle kommen damit besser zurecht.Die einfachste Lösung: Installiere den cron-mastery-Skill von ClawHub. Geh zum Skills-Tab in deinem Dashboard und suche nach "cron-mastery". Dieser Skill bringt deinem Assistenten bei, wie das Planungssystem von OpenClaw funktioniert. Er erklärt Cron-Ausdrücke, Zeitzonen-Handling und den Unterschied zwischen stillen Hintergrund-Jobs und Jobs, die dir tatsächlich eine Nachricht senden.Wichtig: Manche Community-Erinnerungs-Skills auf ClawHub (wie z.B. "remind-me-pro") brauchen Python-Tools (uv oder pip), die auf ClawHosters nicht verfügbar sind. Falls du einen Erinnerungs-Skill installierst und Fehler über fehlende Tools im Logs-Tab siehst, deinstalliere ihn und bleib stattdessen bei cron-mastery. Der funktioniert ohne zusätzliche Abhängigkeiten.Erinnerungen über Nacht "vergessen"? Wenn dein Assistent sagt, er merkt sich etwas, aber die Erinnerung am nächsten Tag weg ist, liegt das wahrscheinlich am täglichen Session-Reset. Session-Resets löschen den Gesprächskontext (standardmäßig um 4 Uhr morgens). Damit eine Erinnerung über Sessions hinweg bestehen bleibt, muss sie als richtiger Cron-Job gespeichert werden, nicht nur im Gesprächsverlauf notiert. Mit cron-mastery weiß dein Assistent, dass er einen persistenten Cron-Job anlegen muss.Probiere nach der Installation eine neue Erinnerung aus. Falls es immer noch nicht klappt, schau im Cron-Tab deines Dashboards nach, ob Jobs erstellt werden, und prüfe den Logs-Tab auf Fehlermeldungen.

Manche ClawHub-Skills basieren auf Python-Skripten und brauchen Tools wie uv (ein Python-Paketmanager) oder pip (ein Python-Paketinstaller). ClawHosters-Container enthalten kein Python, uv oder pip, daher können solche Skills auf deiner Instanz nicht laufen. Im Logs-Tab siehst du dann typischerweise Fehler wie "pip: not found" oder "uv: not found".Das ist kein Fehler. Es ist ein Kompatibilitätsproblem zwischen den Anforderungen des Skills und der ClawHosters-Umgebung. Nicht jeder Skill auf ClawHub ist für jedes Setup gemacht.Was du tun kannst: Prüfe den Logs-Tab auf die genaue Fehlermeldung. Wenn ein fehlendes Tool erwähnt wird (uv, pip, python3 usw.), braucht der Skill Python-Tools. Deinstalliere den Skill über den Skills-Tab. Ohne die nötigen Tools wird er nicht funktionieren. Suche nach einer Alternative auf ClawHub, die kein Python braucht. Skills, die nur aus einer SKILL.md-Datei bestehen (reine Wissens-Skills), funktionieren immer. Skills, die das exec-Tool mit Python-Skripten nutzen, möglicherweise nicht. Prüfe die ClawHub-Seite des Skills vor der Installation. Wenn dort uv oder pip unter Anforderungen oder Abhängigkeiten aufgelistet sind, wird der Skill auf ClawHosters nicht funktionieren. Für Erinnerungen speziell: Der cron-mastery-Skill ist ein reiner Wissens-Skill, der ohne zusätzliche Abhängigkeiten funktioniert. Siehe "Meine geplanten Erinnerungen werden nicht gesendet" weiter oben.

Fehlercode 1000 ist ein normaler WebSocket-Close-Code. Er bedeutet, dass die Verbindung sauber geschlossen wurde, nicht dass etwas abgestürzt ist. Du siehst das bei Konfigurations-Reloads, nach abgeschlossenen Tool-Aufrufen oder wenn das Gateway nach einem routinemäßigen Health-Check neu verbindet.Wenn er gelegentlich in deinen Logs auftaucht, ist er harmlos und du kannst ihn ignorieren. Das gehört zum normalen Gateway-Betrieb.Wenn er dagegen ständig auftaucht und Nachrichten nicht mehr durchkommen, ist das eine andere Situation. Geh in dem Fall zu den Einstellungen und öffne den Bereich Fehlerbehebung. Probiere zuerst "Gateway neustarten" (nicht unterbrechend, dauert etwa 15 Sekunden). Falls das Problem weiterbesteht, nutze "Container neustarten" als letzte Option.

Das ist normales OpenClaw-Verhalten, kein Fehler. Wenn das Kontextfenster deines Modells voll wird, fasst OpenClaw ältere Nachrichten automatisch zu einer Zusammenfassung zusammen, damit die Unterhaltung weitergehen kann. Die Meldung "🧹 Compacting context..." zeigt dir, dass das gerade passiert.Wenn du das nach jeder einzelnen Nachricht siehst, hat sich in deiner Session so viel Kontext angesammelt, dass das Fenster dauerhaft am Limit ist. Jede neue Nachricht schiebt es wieder drüber, Komprimierung läuft, nächste Nachricht, wieder Komprimierung. Ein Teufelskreis.Sofort-Lösung Schreib deinem Bot /new als einzelne Nachricht. Das startet eine komplett frische Session mit leerem Kontext. Danach läuft alles erstmal wieder ohne Komprimierung.Langfristig verhindern Session-Reset häufiger einstellen. Standardmäßig wird die Session nur einmal täglich um 4 Uhr morgens zurückgesetzt. Bei intensiver Nutzung reicht das nicht. Gehe im Dashboard zu Einstellungen > Config Editor und setze session.reset.mode auf "idle" und session.reset.idleMinutes auf z.B. 60. Dann wird die Session automatisch zurückgesetzt, wenn du 60 Minuten nicht schreibst. Komprimierungs-Einstellungen anpassen. Im Config Editor unter agents.defaults.compaction kannst du keepRecentTokens auf einen niedrigeren Wert setzen (z.B. 10000 statt dem Standard 20000). Dann behält die Komprimierung weniger Verlauf und es passiert seltener. Modell mit größerem Kontextfenster nutzen. Gemini 2.5 Flash Lite (in deinem Plan enthalten) hat 1 Million Tokens Kontextfenster. Das dauert wesentlich länger, bis es voll wird. Komprimierung komplett auszuschalten (agents.defaults.compaction.enabled auf false) ist keine gute Idee. Dann bekommst du stattdessen "contextlengthexceeded"-Fehler und der Bot kann gar nicht mehr antworten.

Das passiert, wenn deine Konversation zu lang für das Kontextfenster des Modells wird. Jede Nachricht, jedes Tool-Ergebnis und jede Workspace-Datei vergrößert den Kontext. Wenn das Limit überschritten ist, kann das Modell keine Tool-Aufrufe mehr verarbeiten, also auch keine Dateien schreiben. Text im Chat ausgeben funktioniert noch (kürzere Antworten), aber eine Datei zu schreiben erfordert den vollen Kontext plus Dateiinhalt plus die Tool-Aufruf-Struktur. Diese Kombination sprengt das Limit.Der Fehler im Logs-Tab sieht so aus: Context overflow: prompt too large for the model. Try /reset (or /new) to start a fresh session, or use a larger-context model.Schnelle Lösung Sende /new als einzelne Nachricht an deinen Bot. Das löscht den Konversationsverlauf und gibt dir ein sauberes Kontextfenster. Dann bitte den Agenten in dieser frischen Sitzung erneut, die Datei zu schreiben.Vorbeugen Aktiviere Auto-Komprimierung. Das fasst ältere Konversationsverläufe automatisch zusammen, damit der Kontext handhabbar bleibt. Frag deinen Agenten: "Enable compaction mode safeguard." Oder setze es manuell im Config Editor: agents.defaults.compaction.mode auf safeguard. Nutze ein Modell mit größerem Kontextfenster. DeepSeek V3 Chat hat 131K Tokens. Gemini 2.5 Flash Lite (in deinem Plan enthalten) hat 1 Million Tokens. Für Aufgaben mit langen Konversationen und Dateischreiben hilft ein Wechsel zu Gemini Flash Lite als Primärmodell deutlich. Das kannst du im AI Setup-Tab ändern. Halte Konversationen kürzer bei Datei-Aufgaben. Wenn du den Agenten einen Bericht schreiben lassen willst, starte vorher eine neue Sitzung. Bitte nicht am Ende eines langen Hin-und-Her um das Dateischreiben. Warum Fallback-Modelle nicht immer helfen Wenn dein Primärmodell überläuft, arbeitet der Agent die Fallback-Kette ab. Aber Fallback-Modelle haben oft noch kleinere Kontextfenster (besonders kostenlose Modelle). Der Overflow passiert dann einfach beim nächsten Modell erneut.

Wenn du OpenRouter nutzt und 404 No endpoints available matching your guardrail restrictions and data policy siehst, blockieren deine OpenRouter-Datenschutzeinstellungen die kostenlosen Modell-Endpunkte.OpenRouter verlangt, dass du Logging und Trainingsdaten für Gratismodelle aktivierst. Ohne das liefert die kostenlose Stufe keine Antworten.So behebst du es Gehe zu openrouter.ai/settings/privacy Stelle sicher, dass Logging für Gratismodelle aktiviert ist Prüfe, ob du nicht zu viele Anbieter in deinen Provider-Einstellungen blockiert hast Falls du "Zero Data Retention" (ZDR) aktiviert hast, stehen einige kostenlose Endpunkte nicht zur Verfügung. Deaktiviere ZDR oder wechsle zu kostenpflichtigen Modellen. Nach dem Aktualisieren der Einstellungen sollten deine openrouter/free und openrouter/auto Fallback-Modelle wieder funktionieren.

OpenClaws Sandbox-Funktion erstellt isolierte Docker-Container für die Code-Ausführung. Auf ClawHosters läuft deine Instanz bereits in einem Docker-Container, und Docker-in-Docker ist nicht verfügbar. Deshalb funktioniert der Sandbox-Modus hier nicht.Wenn du diesen Fehler siehst, gehe zu Settings > Config Editor und setze agents.defaults.sandbox.mode auf "off". Falls du ein Multi-Agent-Setup nutzt, prüfe jeden Agenten in agents.list auf einen sandbox-Block und setze den Modus dort ebenfalls auf "off".Du verlierst keine Sicherheit durch das Deaktivieren der Sandbox. Nutze die tools.allow- und tools.deny-Listen bei jedem Agenten, um zu steuern, was er tun darf. Zum Beispiel schränkt das Verweigern von exec, write und edit bei einem Gast-Agenten dessen Zugriff auf Befehle und Dateiänderungen ein. Das bietet den gleichen Schutz, den die Sandbox liefern sollte.

Öffne das Support-Ticket-System in deinem Dashboard und wähle die Kategorie "Fehlerbericht". Beschreibe die Schritte zum Reproduzieren, was du erwartet hast und was tatsächlich passiert ist. Screenshots oder Fehlermeldungen helfen uns, das Problem schneller zu beheben.

Wenn du einen eigenen API-Schlüssel (Bring Your Own Key) für einen Anbieter wie Anthropic oder OpenAI hinzugefügt hast und das Guthaben aufgebraucht ist, kann sich deine Instanz in einer Schleife verfangen. Das passiert so: Du hast während einer laufenden Sitzung auf ein BYOK-Modell gewechselt (z.B. anthropic/claude-opus-4-6) Der Anbieter lehnt die Anfrage ab, weil dein Konto kein Guthaben mehr hat OpenClaw versucht auf ein funktionierendes Modell zurückzufallen, aber die Sitzungseinstellung wechselt immer wieder zurück zum BYOK-Modell Das erzeugt eine Endlosschleife, die die gesamte Nachrichtenverarbeitung blockiert Ein Neustart der Instanz hilft nicht, weil der Sitzungszustand auf der Festplatte gespeichert und beim Start wiederhergestellt wird.So behebst du das Problem Guthaben aufladen auf der Abrechnungsseite deines Anbieters (console.anthropic.com für Anthropic, platform.openai.com für OpenAI) Oder den kaputten Schlüssel entfernen: Gehe zu Einstellungen > AI-Setup und entferne den Anbieter ohne Guthaben Festgefahrene Sitzung löschen: Öffne das Web-UI über dein Dashboard und sende /new, um eine neue Sitzung zu starten. Das unterbricht die Schleife. Falls das alles nicht klappt, erstelle ein Support-Ticket. Wir können die festgefahrene Sitzung serverseitig bereinigen.Deine inkludierten Modelle (z.B. clawhosters/gemini-2.5-flash-lite und clawhosters/deepseek-chat) werden über dein LLM-Addon abgedeckt und funktionieren unabhängig von BYOK-Schlüsseln.So verhinderst du das in Zukunft Richte Fallback-Modelle ein, damit dein Agent auf ein funktionierendes Modell wechseln kann, wenn dein BYOK-Schlüssel ausfällt. Stelle in Einstellungen > Config Editor sicher, dass die model.fallbacks-Liste deines Agenten mindestens ein clawhosters/-Modell enthält. Zum Beispiel: json Copy "model": { "primary": "anthropic/claude-opus-4-6", "fallbacks": ["clawhosters/deepseek-chat", "clawhosters/gemini-2.5-flash-lite"] } So fällt der Agent bei leerem Anthropic-Guthaben auf die inkludierten Modelle zurück, statt in einer Schleife festzuhängen.

Deine Cron-Jobs sind höchstwahrscheinlich noch da. OpenClaw speichert Cron-Jobs in einer separaten Datei auf der Festplatte, und Updates löschen diese Datei nicht. Was meistens passiert: Ein Konfigurations-Validierungsfehler blockiert den Zugriff auf das Cron-System.Nach einem Update kann die neue Version Config-Keys einführen oder alte entfernen. Wenn deine Konfiguration einen Key enthält, den die neue Version nicht kennt (oder einer fehlt, den sie braucht), schlägt jeder CLI-Befehl fehl, auch openclaw cron list, mit einem "Invalid config"-Fehler. Die Cron-Jobs selbst laufen im Hintergrund weiter. Sie sind nur im Dashboard und der CLI unsichtbar.So behebst du es Prüfe auf Config-Fehler: Öffne den Logs-Tab in deinem Dashboard und suche nach "Invalid config"-Meldungen. Die sagen dir genau, welcher Key das Problem verursacht. Config reparieren: Gehe zu Einstellungen > Fehlerbehebung und klicke auf "Config reparieren". Das scannt deine Konfiguration und behebt häufige Validierungsprobleme automatisch. Oder Doctor Fix: Im selben Fehlerbehebungs-Bereich probiere "Doctor Fix". Das führt openclaw doctor --fix im Container aus und migriert veraltete Config-Keys auf das neue Format. Prüfe den Cron-Tab: Nach der Config-Reparatur sollten deine Cron-Jobs im Cron-Tab wieder sichtbar sein. Falls nichts davon hilft, erstelle ein Support-Ticket. Wir können die Config-Datei direkt prüfen und den problematischen Key für dich entfernen. Deine Cron-Jobs sind auf der Festplatte sicher, egal was passiert.

Nach dem Update auf OpenClaw v2026.3.28 oder neuer scheitern manche Modelle (besonders über OpenRouter) mit dem Fehler "Reasoning is required for this model endpoint. Use /think minimal and try again." Das passiert, weil neuere OpenClaw-Versionen eine explizite Thinking-Level-Einstellung für bestimmte Modell-Endpunkte voraussetzen.Dein Bot funktioniert trotzdem, weil die Fallback-Kette einspringt, aber das primäre Modell scheitert bei jedem Aufruf. Du merkst das vielleicht daran, dass deine Fallback-Modelle Rate-Limits erreichen (429-Fehler) oder dein Claws-Guthaben schneller sinkt als erwartet, weil die verwalteten Fallback-Modelle den ganzen Traffic übernehmen.So behebst du es Gehe zu Einstellungen > Config-Editor und füge ein thinkingLevel unter agents.defaults hinzu: json Copy "agents": { "defaults": { "thinkingLevel": "minimal" } } Gültige Stufen sind: off, minimal, low, medium, high, xhigh. Für die meisten Setups reicht minimal aus. Wenn du detaillierteres Reasoning von deinem Modell willst, probiere low oder medium.Du kannst das auch pro Agent in agents.list setzen, falls du verschiedene Thinking-Levels für verschiedene Agenten willst: json Copy { "id": "cortex", "thinkingLevel": "low" } Nach dem Speichern wird die Config automatisch neu geladen. Dein primäres Modell sollte innerhalb weniger Sekunden wieder funktionieren.

Wenn ein Skill alle Konfigurationsprüfungen besteht (API-Keys, Abhängigkeiten), dein Agent aber trotzdem sagt, er könne den Skill nicht finden oder nutzen, liegt das fast immer an den Exec-Berechtigungen. Viele Skills (wie MiniMax Multimodal, coding-agent oder jeder Skill mit Bash-Skripten) brauchen Zugriff auf Shell-Befehle.Prüfe den Logs-Tab auf Zeilen wie: - exec denied: host=gateway security=deny bedeutet, dass alle Shell-Befehle blockiert sind - elevated is not available right now bedeutet, dass der Skill erhöhte Berechtigungen braucht, die nicht konfiguriert sindSo behebst du es Gehe zu Einstellungen > Befehlsausführung und setze Shell-Befehle auf „Alle erlauben". Oder öffne den Config-Editor und setze: json Copy "tools": { "exec": { "security": "full", "ask": "off" } } Falls der Skill clawhub-Befehle (install, uninstall, update) über Telegram braucht, brauchst du auch erhöhte Ausführungsrechte: json Copy "tools": { "elevated": { "enabled": true, "allowFrom": { "telegram": true } } } Das passiert häufig nach Updates, die Exec-Berechtigungen auf restriktive Standardwerte zurücksetzen können. Siehe „Mein Agent verlangt für jeden Befehl eine Bestätigung" in den Konfigurations-FAQs für mehr Details.

Wenn du deinen Bot bittest, einen Befehl auszuführen, der auf Eingabe wartet (z.B. gog auth add --manual, npm init, oder alles mit einem "Press Enter to continue"-Prompt), schlägt das fehl. Der Befehl startet, gibt vielleicht eine URL oder eine Aufforderung aus, und bricht dann ab, bevor du reagieren kannst.Das liegt daran, wie OpenClaws Exec-Tool funktioniert. Jeder Befehl läuft als eigener, isolierter Prozess. Wenn der Befehl eine Ausgabe macht und auf Eingabe wartet, kann der Bot keine Eingabe an den bereits laufenden Prozess schicken. Der nächste Befehl, den du sendest, startet einen komplett neuen Prozess. Der wartende Prozess läuft entweder ins Timeout oder wird beendet.Typisches Beispiel: OAuth-Anmeldung Tools wie gog (Google Suite CLI) brauchen bei der Ersteinrichtung einen OAuth-Flow: URL öffnen, bei Google anmelden, Callback-URL zurückgeben. Mit --manual wartet der Prozess auf die URL als Texteingabe. Das funktioniert in einem Terminal, aber nicht über den Bot.Die Lösung: Befehle aufteilen Viele CLI-Tools haben einen "Remote"- oder "Headless"-Modus, der den interaktiven Flow in separate Befehle aufteilt. Bei gog z.B.:Schritt 1 (generiert die URL, beendet sich sofort): gog auth add deine@email.de --services gmail --remote --step 1 Schritt 2 (nimmt die Callback-URL als Argument, kein Warten nötig): gog auth add deine@email.de --services gmail --remote --step 2 --auth-url 'http://127.0.0.1:xxxxx/oauth2/callback?state=...&code=...' Zwischen Schritt 1 und Schritt 2 hast du ca. 10 Minuten. Dazwischen: URL im Browser öffnen, bei Google anmelden, die komplette Redirect-URL aus der Adresszeile kopieren (auch wenn der Browser "nicht erreichbar" zeigt).Keyring im Container Für Tools, die Tokens dauerhaft speichern müssen (wie gog), brauchst du einen dateibasierten Keyring. Im Container gibt es keinen System-Keyring. Setze die nötigen Umgebungsvariablen im Config-Editor unter env: json Copy "env": { "GOG_KEYRING_BACKEND": "file", "GOG_KEYRING_PASSWORD": "dein-passwort" } Allgemeine Regel Wenn ein Befehl über den Bot nicht funktioniert, weil er auf Eingabe wartet, hast du zwei Optionen: Prüfe, ob das Tool einen nicht-interaktiven Modus hat (--remote, --headless, --no-input, --batch). Damit lässt sich der Flow in separate Befehle aufteilen, die der Bot einzeln ausführen kann. Nutze SSH. Aktiviere SSH-Zugang im Dashboard (Zugriff-Tab) und führe den Befehl in einem echten Terminal aus. Dort funktionieren interaktive Prompts normal.

Kurze Antwort: nein, diese beiden Tailscale-Modi funktionieren auf ClawHosters nicht. Der normale Tailscale-Client ist aber problemlos möglich.Der Grund liegt im Aufbau der Plattform. Dein OpenClaw-Container läuft neben einem nginx-Container, der den eingehenden Traffic von deiner clawhosters.com-Subdomain übernimmt. Nginx spricht mit OpenClaw über das interne Docker-Netzwerk, nicht über Loopback. Damit das funktioniert, muss der Gateway mit gateway.bind: "lan" auf der Container-Netzwerkschnittstelle lauschen.Tailscale serve und funnel brauchen genau das Gegenteil. Sie funktionieren nur, wenn der Gateway an Loopback (127.0.0.1) gebunden ist. Beide Einstellungen schließen sich gegenseitig aus. Wenn du gateway.bind auf loopback änderst und gateway.tailscale.mode: "serve" hinzufügst, weigert sich OpenClaw zu starten und du siehst diesen Fehler in den Logs: text Copy Gateway failed to start: Error: tailscale serve/funnel requires gateway bind=loopback (127.0.0.1) Nach 5 fehlgeschlagenen Startversuchen innerhalb von 60 Sekunden gibt der Sicherheits-Supervisor auf und dein Bot ist offline. SSH funktioniert weiterhin, der Gateway und deine Messenger aber nicht.Was du stattdessen tun kannst Wenn du Tailscale auf deiner Instanz nutzen möchtest, ist der einfachste Weg, den normalen Tailscale-Client direkt im Container zu installieren. Damit tritt deine Instanz deinem Tailnet bei und du erreichst sie über dein privates Mesh, während die öffentliche clawhosters.com-Adresse ganz normal weiterläuft. Du brauchst dafür weder serve noch funnel, der normale Client-Modus reicht aus.Wenn du nur Shell-Zugriff brauchst, gibt es die SSH-Access-Funktion im Dashboard. Sie öffnet Port 2222 mit Key-basierter Authentifizierung. Das ist meistens einfacher als Tailscale aufzusetzen.Falls du deine Instanz so schon kaputtgemacht hast Öffne ein Ticket, ich setze es für dich zurück. Der Fix besteht darin, den gateway.tailscale-Block zu entfernen und gateway.bind wieder auf lan zu setzen, dann den Container neu zu starten. Dauert ungefähr eine Minute.

Legal (6)

Die vollständigen Nutzungsbedingungen kannst du unter clawhosters.com/terms nachlesen. Dort steht alles zu unserer Acceptable Use Policy, den Abrechnungsbedingungen, Haftungsbeschränkungen und zur Streitbeilegung. Mit der Nutzung von ClawHosters akzeptierst du diese Bedingungen.

Kurz gesagt: Alles, was illegal oder schädlich ist. Dazu gehören Malware, Spam, Phishing, Urheberrechtsverletzungen, Krypto-Mining ohne Genehmigung, DDoS-Angriffe, Netzwerk-Scans und das Hosting illegaler Inhalte. Bei Verstößen wird dein Account sofort gekündigt, ohne Rückerstattung.

Wir stellen unsere Dienste "as is" bereit und können keine durchgehende Verfügbarkeit garantieren. Unsere Haftung ist auf die Gebühren begrenzt, die du in den letzten drei Monaten gezahlt hast. Für Datenverlust, Ausfälle bei Drittanbietern, höhere Gewalt oder indirekte Schäden haften wir nicht.

Es gilt deutsches Recht. Das UN-Kaufrecht ist ausgeschlossen. Falls es zu einem Streit kommt, versuchen wir das zuerst direkt zu klären. Die EU bietet außerdem eine Plattform zur Online-Streitbeilegung unter ec.europa.eu/consumers/odr/ an.

Weil wir deinen Server sofort nach dem Kauf bereitstellen, verzichtest du auf das 14-tägige Widerrufsrecht nach EU-Verbraucherrecht (§ 356 Abs. 5 BGB). Das wird dir beim Checkout deutlich angezeigt und du musst es vor dem Abschluss bestätigen.

ClawHosters wird von Daniel Samer in Deutschland betrieben und ist ein Dienst von Yixn.io. Du erreichst uns unter support@clawhosters.com. Das Impressum findest du unter yixn.io/de/impressum. Bei Fragen zum Datenschutz kannst du dieselbe Adresse verwenden.

Getting Started (11)

ClawHosters ist Managed Hosting für OpenClaw AI-Agenten. Wir kümmern uns um die Server-Infrastruktur, Sicherheit und Wartung, damit du dich voll auf deinen AI-Agenten konzentrieren kannst. Alle Server stehen in deutschen Rechenzentren und sind DSGVO-konform.

Nachdem du dich registriert und angemeldet hast, klicke im Dashboard auf "Neue Instanz". Wähle deinen Abrechnungsmodus (täglich oder monatlich), dann deinen Tarif (Budget, Balanced oder Pro) und bestätige die Erstellung. In der Regel dauert die Bereitstellung unter 60 Sekunden. Du bekommst eine E-Mail, sobald deine Instanz bereit ist.

Es gibt drei Tarife. Budget (19 EUR/Monat oder 60 Claws/Tag) mit 2 vCPU, 4 GB RAM und 40 GB Speicher. Balanced (35 EUR/Monat oder 105 Claws/Tag) mit 4 vCPU, 8 GB RAM und 80 GB Speicher. Das ist auch der beliebteste Tarif. Pro (59 EUR/Monat oder 175 Claws/Tag) mit 8 vCPU, 16 GB RAM und 160 GB Speicher für anspruchsvollere Setups. Bei allen Tarifen sind 20 TB Traffic inklusive.

Nein. Die Einrichtung läuft über einen geführten Setup-Wizard, der dich Schritt für Schritt durchführt.

Noch nicht, aber wir planen das. Im Moment müsstest du eine neue Instanz im gewünschten Tarif erstellen. Wir arbeiten daran, Tarifwechsel direkt in einem zukünftigen Update möglich zu machen.

Per E-Mail an support@clawhosters.com. Balanced- und Pro-Kunden bekommen priorisierten Support. Du kannst auch direkt im Dashboard ein Support-Ticket erstellen. Wir antworten in der Regel innerhalb von 24 Stunden an Werktagen.

Ja. Neue Kunden bekommen eine kostenlose Testphase mit vollem Zugriff auf alle Funktionen. Deine Karte wird erst nach Ende der Testphase belastet, und du kannst jederzeit vorher kündigen.

Nein. Jeder Plan enthält kostenlose KI-Modelle (Gemini 2.5 Flash Lite, DeepSeek R1, DeepSeek V3 und Kimi K2.5) mit täglichen und monatlichen Token-Limits. Kein API-Key nötig. Wer ein anderes Modell (wie Claude oder GPT-4), mehr Kapazität oder unbegrenzte Nutzung möchte, kann jederzeit einen eigenen API-Key (BYOK) von jedem unterstützten Anbieter mitbringen. Das ist auch kostenlos, du zahlst nur direkt bei deinem Anbieter.

Ein API-Schlüssel ist eine Zugangsberechtigung von einem KI-Anbieter (wie Anthropic, OpenAI oder Google), die es deiner OpenClaw-Instanz ermöglicht, deren KI-Modelle zu nutzen. Stell dir das wie ein Passwort vor, das deinen Assistenten mit einem bestimmten KI-Gehirn verbindet. Du brauchst aber keinen, um loszulegen. Jeder Plan enthält kostenlose KI-Modelle (Gemini 2.5 Flash Lite, DeepSeek R1, DeepSeek V3 und Kimi K2.5) mit täglichen und monatlichen Token-Limits. API-Schlüssel sind nur relevant, wenn du ein anderes Modell nutzen oder über BYOK (Bring Your Own Key) unbegrenzte Nutzung haben möchtest.

ClawHosters unterstützt alle großen KI-Anbieter. Anthropic (Claude-Modelle, empfohlen für Coding und Automatisierung), OpenAI (GPT-4o), Google (Gemini), OpenRouter (Zugang zu über 200 Modellen mit einem Schlüssel), DeepSeek, Mistral und Groq. Über OpenRouter hast du auch Zugang zu datenschutzorientierten und Open-Source-Modellen.

Jeder Anbieter hat seinen eigenen Prozess, aber es funktioniert überall ähnlich. Registriere dich auf deren Website, hinterlege eine Zahlungsmethode und erstelle einen API-Schlüssel. Für Anthropic gehst du zu console.anthropic.com. Für OpenAI zu platform.openai.com. Für Google zu aistudio.google.com. Für OpenRouter zu openrouter.ai. Wenn du ein Claude Pro- oder Max-Abo hast, kannst du auch claude setup-token in deinem Terminal ausführen, um einen Token zu generieren.

Isometric OpenClaw deployment illustration

OpenClaw ohne den Aufwand

Dein eigener KI-Assistent läuft in 2 Minuten. Wir kümmern uns um Server, Sicherheit und Updates. Du chattest einfach.