Abo -30% SUB30
ClawHosters FAQ background

Häufig gestellte Fragen

Alles, was du zu ClawHosters wissen musst. Schnell und ohne Umwege.

Instances (13)

Alles bleibt in Deutschland. Wir nutzen Hetzner Cloud Rechenzentren in Falkenstein, Deutschland. Die Latenz für europäische Nutzer ist dadurch niedrig, und du bist vollständig DSGVO-konform. Deine Daten verlassen niemals die EU.

In den meisten Fällen unter 60 Sekunden. Wir halten vorbereitete Server mit vorinstallierter Software bereit, deine Instanz ist also quasi sofort verfügbar. Du bekommst eine E-Mail, sobald alles fertig ist. Den Fortschritt kannst du auch live im Dashboard verfolgen.

Ja, jederzeit. Beim Pausieren erstellen wir einen Snapshot und entfernen den Server vorübergehend. Solange die Instanz pausiert ist, fallen keine Kosten an. Wenn du weitermachen möchtest, stellen wir alles aus dem Snapshot wieder her. Wichtig zu wissen: Falls dein Guthaben 3 Tage lang bei null bleibt, werden pausierte Instanzen gelöscht.

Du kannst direkt im Dashboard ein Support-Ticket erstellen. Wir überwachen alle Instanzen auch auf unserer Seite. Bei kritischen Ausfällen melden wir uns bei dir, oft bevor du es selbst merkst. Formelle SLA-Garantien bieten wir nicht an, aber wir nehmen Verfügbarkeit ernst.

Du hast zwei Möglichkeiten: das ClawHosters Dashboard und direkten SSH-Zugang. Für den Alltag ist das Dashboard wahrscheinlich am einfachsten. Und SSH ist dann da, wenn du tiefer einsteigen musst. Deine eigenen öffentlichen Schlüssel kannst du in den Dashboard-Einstellungen hinterlegen.

Ja, so viele du brauchst. Jede Instanz wird einzeln abgerechnet. Ein Limit für die Anzahl gibt es nicht, und du verwaltest alle über das gleiche Dashboard. Wenn du ein größeres Deployment planst, melde dich bei uns und wir sprechen über Mengenrabatte.

Wir unterstützen Telegram, Discord, Slack und WhatsApp. Die Einrichtung läuft im Dashboard unter "Messenger konfigurieren." Für Telegram brauchst du einen Bot-Token von BotFather. Bei Discord und Slack funktioniert es ähnlich. Du holst dir einen Bot-Token aus dem jeweiligen Entwickler-Portal. WhatsApp läuft etwas anders, dort gibt es einen Pairing-Prozess über die Web-Oberfläche deiner Instanz. Du kannst auch mehrere Plattformen mit einer Instanz verbinden.

Wenn du diesen Status nach der Bereitstellung siehst, bedeutet das nur, dass der Server läuft, aber noch einen LLM-API-Schlüssel braucht. Gehe zu "AI konfigurieren" im Dashboard und trage deinen Schlüssel ein. Sobald das erledigt ist, wechselt die Instanz automatisch auf "Aktiv".

Wenn du die DM-Richtlinie eines Messenger-Kanals auf "Pairing" setzt, müssen neue Nutzer erst von dir freigegeben werden, bevor sie mit deinem AI-Agenten interagieren können. Ausstehende Anfragen siehst du im Dashboard und kannst sie einzeln annehmen oder ablehnen. Wenn du diesen Schritt überspringen möchtest, setze die DM-Richtlinie einfach auf "Offen". Dann kann jeder sofort eine Konversation starten.

Öffne deine Instanz im Dashboard und wähle "Neuaufbau" aus den Verwaltungsoptionen. Ein Neuaufbau ist ein vollständiger Werksreset. Er löscht den Container komplett und installiert eine frische OpenClaw-Installation von Grund auf. Nutze das als letzten Ausweg, wenn etwas grundlegend kaputt ist und ein einfacher Neustart nicht hilft. Du musst den Einrichtungsassistenten erneut durchlaufen, um deinen LLM-Anbieter, Messenger-Kanäle und andere Einstellungen neu zu konfigurieren. Der Vorgang dauert in der Regel etwa eine Minute.

Ja. Geh im Dashboard zum Zugriff-Tab und aktiviere den SSH-Zugang. Du kannst entweder den bereitgestellten Schlüssel verwenden oder deinen eigenen öffentlichen Schlüssel hinterlegen. Sobald SSH aktiviert ist, siehst du die Verbindungsdaten (IP-Adresse und Port) direkt im Dashboard.

Ein Neuaufbau löscht ALLE Daten im Container. Das betrifft deine LLM-Konfiguration, Messenger-Tokens, Chat-Verlauf, Cron-Jobs, eigene Dateien, SSH-Schlüssel und alle anderen Änderungen, die du vorgenommen hast. Es ist ein vollständiger Werksreset.Was erhalten bleibt: deine Server-IP-Adresse, Subdomain, Instanz-Paket und Abrechnungsmodus. Alles andere startet von vorne. Du durchläufst den Einrichtungsassistenten erneut, um deine Instanz von Grund auf neu zu konfigurieren.

Falls deine Instanz bei der Wiederherstellung fehlgeschlagen ist (z.B. weil der Snapshot abgelaufen ist oder der Server nicht wieder hochgefahren ist), kannst du versuchen, im Dashboard erneut auf "Fortsetzen" zu klicken. Wenn das nicht funktioniert, gibt es möglicherweise ein Problem mit dem zugrunde liegenden Snapshot. Kontaktiere support@clawhosters.com mit deinem Instanznamen und eventuellen Fehlermeldungen. Wir können die Wiederherstellung manuell anstoßen oder eine neue Instanz mit deiner gespeicherten Konfiguration bereitstellen.

Channels (9)

Prüfe zuerst im Dashboard, ob deine Instanz noch läuft. Wenn der Status "Aktiv" ist, aber der Bot trotzdem schweigt, geh zum Channels-Tab und überprüfe, ob dein Bot-Token noch gültig ist. Tokens können ungültig werden, wenn du sie bei BotFather neu generierst. Falls der Token in Ordnung aussieht, trenne den Channel und verbinde ihn neu. Das löst das Problem meistens.

Du brauchst nur einen regulären WhatsApp-Account mit einer eigenen Telefonnummer. Ein WhatsApp Business Account ist nicht erforderlich. ClawHosters nutzt das WhatsApp-Web-Protokoll (Baileys) für die Verbindung. Geh im Dashboard zum Channels-Tab und wähle WhatsApp aus. Deine Instanz zeigt dann einen QR-Code an, den du mit deiner normalen WhatsApp-App scannst. Nach dem Pairing laufen Nachrichten automatisch über deine Instanz.

Ja. Du kannst Telegram, WhatsApp, Discord und Slack gleichzeitig mit derselben Instanz verbinden. Alle Kanäle teilen sich dasselbe KI-Gehirn und die gleiche Konfiguration, sodass dein Assistent überall einheitlich reagiert.

Das ist eine bekannte UI-Verzögerung. Die WhatsApp-Verbindung braucht ein paar Sekunden, um mit dem Dashboard-Status zu synchronisieren. Warte etwa 30 Sekunden und lade die Seite neu. Wenn der Status nach einer Minute immer noch "Wartend" anzeigt, trenne die Verbindung und koppele über den QR-Code-Flow neu. In seltenen Fällen ist die Session still abgebrochen. Neu koppeln behebt das.

WhatsApp erlaubt bis zu 4 verknüpfte Geräte pro Telefonnummer, aber wenn du dieses Limit erreichst, trennt ein neues verknüpftes Gerät das älteste. Wenn du mehrere WhatsApp-Web-Sessions offen hast, kann eine davon deine ClawHosters-Session sein. Prüfe deine verknüpften Geräte in WhatsApp (Einstellungen > Verknüpfte Geräte) und stelle sicher, dass die ClawHosters-Session noch aktiv ist. Prüfe außerdem, ob dein Handy eine stabile Internetverbindung hat, da WhatsApp erfordert, dass das Telefon online bleibt, damit die Bridge funktioniert. Falls die Trennungen weiterhin auftreten, geh zu den Einstellungen und nutze "Doctor Fix" im Fehlerbehebungs-Bereich, um die Kanäle neu zu verbinden.

Gehe zum Discord Developer Portal (discord.com/developers) und erstelle eine neue Anwendung. Unter dem "Bot"-Tab erstellst du einen Bot und kopierst sein Token. Stelle sicher, dass du "Message Content Intent" unter Privileged Gateway Intents aktivierst, sonst kann der Bot keine Nachrichten lesen. Dann gehst du in deinem ClawHosters-Dashboard zum Channels-Tab, wählst Discord aus und fügst das Bot-Token ein. Zum Schluss lädst du den Bot über den OAuth2-URL-Generator im Developer Portal auf deinen Discord-Server ein (wähle den "bot"-Scope und die Berechtigungen, die dein Bot braucht).

Ja. Du kannst Slack genauso wie Telegram, WhatsApp und Discord mit deiner OpenClaw-Instanz verbinden. Richte es im Channels-Tab in deinem Dashboard ein. Du musst eine Slack-App im Slack-API-Portal erstellen, das Bot-Token hinzufügen und den Bot in deinen Workspace einladen. Alle vier Plattformen können gleichzeitig auf derselben Instanz laufen.

Fehler 4014 bedeutet, dass der "Message Content Intent" für deinen Discord-Bot nicht aktiviert ist. Geh zum Discord Developer Portal (discord.com/developers), wähle deine Bot-Anwendung aus, navigiere zum "Bot"-Tab und aktiviere "Message Content Intent" unter Privileged Gateway Intents. Ohne das kann dein Bot keine Nachrichteninhalte lesen und ignoriert alles stillschweigend. Nach dem Aktivieren verbinde den Discord-Channel in deinem ClawHosters-Dashboard neu.

Starte mit "Doctor Fix" in den Einstellungen unter dem Fehlerbehebungs-Bereich. Es verbindet Kanäle neu und behebt veraltete Plugin-Zustände, ohne deine Instanz zu stören. Falls das nicht hilft, probiere "Gateway neustarten" (ebenfalls nicht störend, lädt die Verbindungsschicht neu). Bei hartnäckigen Problemen trenne den Channel im Dashboard, warte ein paar Sekunden und verbinde ihn neu. Bei WhatsApp musst du über den QR-Code neu koppeln. Bei Telegram gibst du einfach den Bot-Token erneut ein.

Configuration (18)

Öffne deine Instanz im Dashboard und geh zum Einstellungen-Tab. Dort kannst du den System-Prompt, die Modellauswahl, die Temperatur und andere Parameter anpassen. Änderungen werden innerhalb von Sekunden über Live-Reload übernommen, du musst also nichts neu starten.

Skills sind Zusatzfähigkeiten für deinen KI-Agenten, zum Beispiel Websuche, Bildgenerierung oder Dateiverarbeitung. Du kannst sie direkt im Dashboard über ClawHub durchstöbern und installieren. Wenn du etwas Spezielles brauchst, kannst du auch eigene Skills entwickeln und auf deine Instanz hochladen.

Konfigurationsänderungen werden per Live-Reload übernommen, ein falscher Wert kann also sofort Probleme verursachen. Häufige Fehler: ungültiges API-Key-Format, nicht unterstützte Modellnamen oder Tippfehler in den Konfigurationsschlüsseln. Geh zu den Einstellungen und probiere "Config reparieren" im Fehlerbehebungs-Bereich. Das scannt nach häufigen Problemen und behebt sie automatisch. Falls das nicht hilft, prüfe den Logs-Tab auf die genaue Fehlermeldung. Du kannst auch "Doctor Fix" nutzen, um veraltete Zustände zu bereinigen, ohne den Betrieb zu stören.

Der Config-Editor in deinem Dashboard validiert Schlüssel beim Tippen. Bei einem ungültigen Schlüssel wird eine Warnung angezeigt. Halte dich an die Schlüssel, die in der Autovervollständigung des Editors erscheinen. Für erweiterte Konfiguration schau in die OpenClaw-Dokumentation. Änderungen über den Config-Editor im Dashboard sind immer sicherer als das direkte Bearbeiten von Konfigurationsdateien, da Fehler erkannt werden, bevor sie übernommen werden.

Das sind zwei verschiedene Authentifizierungswege zum selben Anbieter: openai/ nutzt einen API Key von platform.openai.com. Du zahlst pro Token und hast die Rate-Limits deines API-Tiers. openai-codex/ nutzt dein ChatGPT-Abo (Plus, Pro, Team) über OAuth. Du nutzt dein Abo-Kontingent mit eigenen Rate-Limits. Das ist wichtig für die Modellkonfiguration: Wenn du dich per Codex OAuth angemeldet hast, funktionieren nur openai-codex/-Modelle (z.B. openai-codex/gpt-5.1). Modelle mit dem openai/-Prefix (z.B. openai/gpt-5.2) brauchen einen separaten API Key und schlagen fehl, wenn keiner hinterlegt ist.Typisches Problem: Du konfigurierst openai/gpt-5.2 als Fallback, hast aber nur OAuth. Der Fallback schlägt fehl und OpenClaw fällt auf dein primäres Modell zurück, das vielleicht schon am Rate-Limit ist. Lösung: Nutze openai-codex/-Modelle oder clawhosters/-Modelle (die im Plan enthaltenen Managed Models) als Fallbacks.

Fallback-Modelle springen ein, wenn dein primäres Modell nicht verfügbar ist (z.B. durch Rate-Limits oder Ausfälle). Ohne konfigurierte Fallbacks scheitert der Agent einfach, statt auf ein Backup umzuschalten.Du kannst Fallbacks über das Dashboard im Einstellungen-Tab konfigurieren oder per Kommandozeile (SSH): text Copy openclaw models fallbacks add clawhosters/deepseek-reasoner openclaw models fallbacks add clawhosters/deepseek-chat Dein Plan enthält kostenlose Managed Models, die sich gut als Fallbacks eignen: clawhosters/deepseek-reasoner (DeepSeek R1, gut für Reasoning) clawhosters/deepseek-chat (DeepSeek V3, schnell) clawhosters/gemini-2.5-flash-lite (Gemini Flash Lite, schnell und günstig) Prüfe auch deine Agenten-Einstellungen und Cron-Jobs. Wenn dort Modelle von Anbietern stehen, die du nicht konfiguriert hast (z.B. nvidia/ ohne nvidia API Key), schlagen diese fehl und belasten dein Hauptmodell unnötig durch Fallback-Kaskaden.

OpenClaw hat einen eingebauten Cron-Scheduler, mit dem dein Assistent Aufgaben nach Zeitplan oder zu einem bestimmten Zeitpunkt ausführen kann. Du kannst deinen Assistenten bitten, "jeden Morgen die Nachrichten zu prüfen" (wiederkehrend) oder "erinnere mich morgen um 15 Uhr" (einmalig). Der Assistent erstellt automatisch Cron-Jobs, wenn du solche Anfragen stellst.Es gibt zwei Zeitplan-Typen: "every" führt einen Job in einem wiederkehrenden Intervall aus (z.B. stündlich, täglich um 9 Uhr), und "at" führt einen Job einmalig zu einem bestimmten Zeitpunkt aus und löscht sich danach selbst.Jeder Cron-Job hat außerdem einen Payload-Typ, der bestimmt, was beim Auslösen passiert: agentTurn: Der Assistent führt einen vollständigen Gesprächszug aus und kann dir eine Nachricht senden. Nutze das für Erinnerungen und alles, was eine sichtbare Antwort erzeugen soll. systemEvent: Fügt eine Notiz still in den Sitzungskontext ein. Das sendet dir keine Nachricht oder Benachrichtigung. Nutze das für Kontext-Updates im Hintergrund. Damit Erinnerungen tatsächlich in deinem Chat ankommen, muss der Job agentTurn mit announce-Zustellmodus verwenden. Falls dein Assistent stattdessen systemEvent-Jobs für Erinnerungen erstellt, installiere den remind-me-Skill von ClawHub, um ihm die richtige Vorgehensweise beizubringen.Du kannst deine Cron-Jobs im Cron-Tab deines Dashboards einsehen und verwalten. Der Ausführungsverlauf zeigt, ob jeder Job erfolgreich ausgeführt wurde und ob eine Nachricht zugestellt wurde.

Jeder LLM-Anbieter nutzt einen bestimmten Format-String. Für Anthropic (Claude-Modelle) verwende anthropic-messages (z.B. anthropic-messages/claude-sonnet-4-20250514). Für OpenAI verwende openai-completions (z.B. openai-completions/gpt-4o). Für Google Gemini verwende google (z.B. google/gemini-2.5-flash). Für OpenRouter verwende openrouter (z.B. openrouter/anthropic/claude-sonnet-4). Das Format ist wichtig. Ein falsches Format führt zu API-Fehlern. Im Addons-Tab deines Dashboards findest du die vollständige Liste der unterstützten Anbieter und ihrer Format-Strings.

Nicht alle Modelle können gleich gut mit Tools umgehen. Tool Calling ist der Mechanismus, über den dein Assistent die eingebauten Funktionen von OpenClaw nutzt (z.B. Cron-Jobs erstellen, Nachrichten senden oder im Web suchen). Leichtgewichtige und "Fast"-Modellvarianten haben oft Schwierigkeiten mit komplexen Tool-Schemas und scheitern dann entweder leise oder erstellen fehlerhafte Tool-Aufrufe.Modelle, die gut mit Tools und Zeitplanung umgehen: xAI Grok 4.1 Fast: Hervorragendes Tool Calling, weltweit verfügbar. Z.AI GLM-5: Starkes Tool Calling, gute Alternative wenn xAI nicht in Frage kommt. Anthropic Claude Sonnet 4: Sehr zuverlässig (braucht API-Zugang aus unterstützten Regionen). OpenAI GPT-4o: Solides Tool Calling (braucht API-Zugang aus unterstützten Regionen). Modelle, die bei Tool Calling Schwierigkeiten haben: Gemini Flash Lite und ähnliche Ultra-Leichtgewicht-Modelle. Non-Reasoning "Fast"-Varianten kleinerer Modelle. Einige DeepSeek-Modelle über den Managed Proxy (Timeout-Probleme). Falls deine Erinnerungen nicht funktionieren, erstellt das Modell möglicherweise den falschen Cron-Job-Typ (systemEvent statt agentTurn). Installiere den cron-mastery-Skill von ClawHub, damit dein Assistent die richtige Vorgehensweise lernt. Teste danach, indem du eine einfache Erinnerung setzt und im Cron-Tab prüfst, ob ein Job mit dem richtigen Typ erstellt wurde.

Manche LLM-Anbieter beschränken den direkten API-Zugang aus bestimmten Regionen. Stand 2025 blockieren sowohl Anthropic (Claude) als auch OpenAI (GPT) API-Anfragen aus mehreren Ländern und Gebieten, darunter Hongkong, Festland-China, Russland und andere. Wenn du in einer betroffenen Region bist, schlägt die API-Key-Validierung fehl, auch wenn der Schlüssel selbst gültig ist.Alternativen, die weltweit oder mit weniger Einschränkungen funktionieren: xAI (Grok): In den meisten Regionen verfügbar. Grok 4.1 Fast ist hervorragend für Tool Calling und Zeitplanung. Z.AI / Zhipu: Das Z.AI Coding Plan Addon gibt dir Zugang zu GLM-5 (starkes Reasoning und Tool-Nutzung), GLM-4.7 und GLM-4.5 Air. Weltweit verfügbar. Google Gemini: In den meisten Ländern verfügbar. Gemini 2.5 Flash ist schnell und leistungsfähig. DeepSeek: Weltweit verfügbar. Gut für allgemeine Konversation, wobei manche Modelle bei tool-intensiven Aufgaben langsam sein können. Alle diese Anbieter kannst du als primäres Modell oder als Fallback im Einstellungen-Tab konfigurieren. Wenn du unsicher bist, welche Anbieter in deiner Region funktionieren, probiere einfach einen API Key im Dashboard hinzuzufügen. Die Key-Validierung zeigt dir sofort, ob die Verbindung klappt.

Die Bezeichnungen variieren je nach Anbieter, aber grundsätzlich bedeuten sie:Fast: Optimiert für Geschwindigkeit und geringere Kosten. Antworten kommen schnell, aber das Modell kann bei komplexen Aufgaben weniger genau sein. Gut für einfache Konversationen und schnelle Antworten.Reasoning: Das Modell denkt Schritt für Schritt, bevor es antwortet. Dadurch ist es besser bei komplexen Aufgaben wie dem Erstellen von Cron-Jobs mit den richtigen Parametern, mehrstufiger Tool-Nutzung und dem Befolgen detaillierter Anweisungen. Der Kompromiss: langsamere Antwortzeiten und höherer Token-Verbrauch.Non-Reasoning: Überspringt den internen Denkschritt komplett. Schnellste Antwortzeiten, kann aber Feinheiten in Tool-Schemas oder komplexen Anweisungen übersehen. Für lockere Chats in Ordnung, aber weniger zuverlässig für Zeitplanung und Automatisierung.Für Erinnerungen, Cron-Jobs und alles, was Tool Calling erfordert, funktionieren Reasoning-Varianten oder Standard-Modelle (ohne Suffix) in der Regel zuverlässiger als Non-Reasoning-Fast-Varianten. Wenn dein Assistent wiederholt daran scheitert, Cron-Jobs zu erstellen oder Tools korrekt aufzurufen, hilft oft schon der Wechsel von einer "Fast"- oder "Non-Reasoning"-Variante zur Standard- oder "Reasoning"-Version desselben Modells.

OpenClaw hat ein eingebautes Gedächtnissystem, das deine Workspace-Dateien indexiert und während Konversationen durchsuchbar macht. Die wichtigsten Bestandteile: MEMORY.md: Eine kuratierte Datei im Workspace-Root mit deinem Langzeitkontext (Identität, Vorlieben, wichtige Infos). Diese Datei wird besonders behandelt: immer zuerst indexiert, nie von zeitlichem Verfall betroffen. Eine gute MEMORY.md zu schreiben ist das Beste, was du für die Gedächtnisqualität tun kannst. memory/*.md-Dateien: Tagesnotizen, Projektnotizen, Workflow-Dokumentation. Werden automatisch indexiert und sind durchsuchbar. memorySearch: Die Suchmaschine, die relevanten Kontext abruft. Unterstützt hybride Suche, die BM25-Keyword-Matching mit semantischer Vektorsuche kombiniert. Um memorySearch mit Hybrid-Modus zu aktivieren, geh zum Einstellungen-Tab und aktualisiere deine Config: json Copy "agents": { "defaults": { "memorySearch": { "enabled": true, "provider": "openai", "model": "text-embedding-3-small", "query": { "hybrid": { "enabled": true, "vectorWeight": 0.7, "textWeight": 0.3 } } } } } Falls du OpenRouter für Embeddings nutzt, setze remote.baseUrl auf https://openrouter.ai/api/v1 und hinterlege deinen API Key unter remote.apiKey.Du kannst auch zeitlichen Verfall aktivieren (neuere Erinnerungen ranken höher, 30 Tage Halbwertszeit) und MMR-Diversität (verhindert redundante Ergebnisse aus ähnlichen Tagesnotizen) unter query.hybrid. In der OpenClaw-Dokumentation findest du die vollständige Referenz zur Gedächtniskonfiguration.

Ja, mit ein paar Einschränkungen je nach Tier.QMD (Query Markdown Database) ist ein alternatives Gedächtnis-Backend, das lokal auf deiner Instanz läuft. Es lädt drei kleine GGUF-Modelle herunter (~2GB insgesamt) und macht BM25 + Vektor + LLM-Re-Ranking komplett auf dem Gerät, ohne externe API-Aufrufe für die Suche. So richtest du es ein: Aktiviere SSH-Zugang in deinem Dashboard Verbinde dich per SSH und führe aus: bun install -g https://github.com/tobi/qmd Füge "memory": { "backend": "qmd" } zu deiner Config hinzu QMD verbraucht etwa 600MB zusätzlichen RAM. Auf Balanced- und Pro-Tiers ist das kein Problem. Auf dem Budget-Tier kann es eng werden, je nachdem was dein Agent sonst noch macht. Der Modell-Download passiert einmalig beim ersten Start.Graphiti nutzt eine Neo4j-Graphdatenbank für temporale Wissensgraphen mit automatischem Abruf und automatischer Erfassung. Ein starkes Konzept, aber es braucht eine vollständige Neo4j-Instanz neben deinem Agenten. Das ist auf ClawHosters aktuell nicht machbar, da jede Instanz eine einzelne Docker-Komposition nutzt und zusätzliche Datenbankdienste nicht unterstützt werden.Obsidian passt gut zu deiner Instanz, wenn du den Obsidian-Skill installiert hast. Du kannst Obsidian auf deinem Rechner nutzen, um deine Gedächtnisdateien zu pflegen und zu organisieren, und sie dann über ein Sync-Plugin mit dem Workspace deiner Instanz synchronisieren. So hast du lokal eine schöne visuelle Bearbeitungsoberfläche, während dein Agent auf dem Server auf dieselben Dateien zugreift.Für die meisten Setups liefert die eingebaute memorySearch mit Hybrid-Modus hervorragende Ergebnisse ohne zusätzliche Abhängigkeiten. Die Einrichtung findest du im FAQ-Eintrag weiter oben.

OpenClaw hat keine maxContextMessages- oder maxContextTokens-Einstellungen. Unbekannte Schlüssel in der Config verursachen Validierungsfehler und können das Gateway zum Absturz bringen. Verwende nur Schlüssel, die in der Autovervollständigung des Config-Editors auftauchen.Der richtige Weg, die Kontextgröße zu steuern, sind drei eingebaute Mechanismen, die zusammenarbeiten: Context Pruning (agents.defaults.contextPruning): Kürzt alte Tool-Ergebnisse vor jedem LLM-Aufruf. Der Standardmodus ist cache-ttl. Wichtige Einstellungen sind keepLastAssistants (wie viele der letzten Assistenten-Turns vollständig erhalten bleiben, Standard 3) und softTrim.maxChars (schrumpft übergroße Tool-Outputs, Standard 4000 Zeichen). Das ist der direkteste Hebel, um den Token-Verbrauch pro Aufruf zu senken. Compaction (agents.defaults.compaction.mode: "safeguard"): Fasst den Gesprächsverlauf automatisch zusammen, wenn der Kontext sich dem Token-Limit des Modells nähert. Statt abzustürzen oder abzuschneiden, kondensiert OpenClaw ältere Turns in eine Zusammenfassung und macht weiter. Das ist standardmäßig bereits aktiv. Session Reset (session.reset.mode: "daily"): Löscht den gesamten Gesprächsverlauf einmal täglich zu einer konfigurierten Uhrzeit. Auf ClawHosters-Instanzen standardmäßig aktiviert. Verhindert, dass lang laufende Konversationen unbegrenzt Kontext ansammeln. Für die Kostenkontrolle ist die Modellwahl wichtiger als Kontext-Tuning. Die clawhosters/-Modelle in deinem Plan (z.B. clawhosters/deepseek-chat oder clawhosters/gemini-2.5-flash-lite) sind kostenlos nutzbar und funktionieren gut für Routineaufgaben. Fallback-Modelle einrichten, damit günstigere Modelle einfache Anfragen übernehmen, Konversationen durch tägliche Session-Resets kürzer halten und Context Pruning nutzen, um aufgeblähte Tool-Outputs zu kürzen, das alles senkt die Kosten effektiver, als zu versuchen, die Kontextgröße hart zu begrenzen.Nachrichtenbasiertes Pruning (z.B. "nur die letzten N Nachrichten senden") ist ein häufig gewünschtes Feature, das es in OpenClaw noch nicht gibt. Es könnte in einer zukünftigen Version kommen. Bis dahin deckt die Kombination aus Context Pruning, Compaction und Session Reset die meisten Anwendungsfälle gut ab.

Ja. Die Konfiguration deiner Instanz (openclaw.json) wird automatisch zweimal täglich um 05:00 und 17:00 UTC gesichert. Das ist eine kostenlose Funktion, die in jeder Instanz enthalten ist, kein Add-on nötig. Die Backups erfassen deine LLM-Einstellungen, Kanal-Tokens, Persönlichkeit, Fähigkeiten, Zeitgesteuerte Jobs und alle anderen Konfigurationswerte.Die Aufbewahrung funktioniert gestaffelt: Alle Backups der letzten 7 Tage werden behalten, dazu ein Backup an der 14-Tage-Marke und eins an der 31-Tage-Marke. Alles älter als 37 Tage wird gelöscht. Manuelle Backups werden nie automatisch entfernt.Du kannst Konfigurations-Backups unter Einstellungen > Konfig-Backups in deinem Dashboard ansehen, vorab anschauen und wiederherstellen.

Gehe zu Einstellungen > Konfig-Backups, finde das gewünschte Backup und klicke auf das Wiederherstellen-Symbol. Du musst deinen Instanznamen eingeben, um zu bestätigen, da die Wiederherstellung deine aktuelle Konfiguration überschreibt und die Instanz neu startet. Die Wiederherstellung läuft im Hintergrund und dauert unter einer Minute.Vor der Wiederherstellung kannst du auf Vorschau klicken, um den Inhalt mit maskierten API-Schlüsseln zu sehen. Wenn du API-Schlüssel seit dem Backup rotiert hast, musst du sie nach der Wiederherstellung aktualisieren.Es ist ratsam, ein manuelles Backup deiner aktuellen Konfiguration zu erstellen, bevor du eine ältere wiederherstellst. So kannst du bei Bedarf zurückwechseln.

Konfigurations-Backups speichern nur die Konfigurationsdatei (openclaw.json). Sie sind leichtgewichtig (wenige KB), kostenlos und laufen automatisch. Nutze sie, um kaputte Konfigurationsänderungen rückgängig zu machen.Das Backup Add-on erstellt vollständige Server-Snapshots über Hetzner. Diese erfassen alles: Chatverlauf, hochgeladene Dateien, installierte Pakete, eigene Anpassungen und die Konfiguration. Es ist ein bezahltes Add-on und läuft einmal täglich.Wenn du nur eine Einstellung geändert hast und etwas kaputt ist, bringt dich ein Konfigurations-Backup in Sekunden zurück. Wenn du Daten oder Dateien wiederherstellen musst, brauchst du das Backup Add-on.

Ja. Gehe zu Einstellungen > Konfig-Backups und klicke auf Backup erstellen. Du kannst eine Beschreibung wie "Vor Wechsel zu GPT-5" hinzufügen, um es später leichter zu finden. Manuelle Backups werden dauerhaft aufbewahrt (sie werden nie automatisch gelöscht) und dienen als zuverlässige Speicherpunkte.

Addons (11)

Jeder Plan enthält kostenlose KI: Gemini 2.5 Flash Lite, DeepSeek R1, DeepSeek V3 und Kimi K2.5, mit täglichen und monatlichen Token-Limits. Kein API-Key nötig. Wer ein anderes Modell (wie Claude oder GPT-4), mehr Kapazität oder unbegrenzte Nutzung möchte, kann auf BYOK wechseln und eigene API-Keys von jedem unterstützten Anbieter nutzen (Anthropic, OpenAI, Google, DeepSeek, Mistral, Groq oder OpenRouter). BYOK ist kostenlos. Du zahlst nur direkt bei deinem Anbieter.

Kommt darauf an, wie wichtig dir deine Daten sind. Das Backup-Add-on erstellt automatisch Snapshots deiner Instanz, mit 7, 30 oder 90 Tagen Aufbewahrung. Gespeichert wird alles auf Hetzner-Infrastruktur. Zusätzlich wird beim Pausieren deiner Instanz automatisch ein Snapshot erstellt. Auch ohne das Add-on hast du also ein grundlegendes Sicherheitsnetz.

Ja. Du kannst Add-ons jederzeit über das Dashboard hinzufügen oder entfernen. Die Abrechnung passt sich anteilig an. Du zahlst also nur, was du tatsächlich nutzt.

Nichts. BYOK ist kostenlos. Du zahlst nur die API-Kosten direkt bei deinem Anbieter (OpenAI, Anthropic oder wer auch immer). Deine Schlüssel werden verschlüsselt gespeichert und nie geloggt. Wenn du bereits API-Zugang hast oder einen bestimmten Anbieter brauchst, ist BYOK die richtige Wahl.

Öffne deine Instanz und gehe zum AI Setup-Tab. Du kannst zwischen den enthaltenen kostenlosen KI-Modellen (Gemini 2.5 Flash Lite, DeepSeek R1, DeepSeek V3, Kimi K2.5) und dem BYOK-Modus wechseln, bei dem du deinen eigenen API-Key von einem unterstützten Anbieter verwendest. Die Änderung wird innerhalb von Sekunden wirksam. Für Anbieter, die nicht im Dropdown sind, klicke auf "Add Custom Provider" im AI Setup-Tab, um jeden OpenAI-kompatiblen Anbieter direkt hinzuzufügen.

Ja. Klicke im AI Setup-Tab auf "Add Custom Provider", um jeden Anbieter mit einer OpenAI-kompatiblen API hinzuzufügen. Wähle aus Vorlagen (Featherless AI, Together AI, Fireworks AI, Ollama) oder nutze "Manual setup" für andere Anbieter. Trage die Base-URL, deinen API-Key und mindestens eine Model-ID ein. Nach dem Speichern kannst du den Anbieter direkt als Hauptmodell setzen.Für erweiterte Konfiguration (eigene Kostenwerte, Reasoning-Flags, etc.) kannst du den Provider-Block auch direkt unter Einstellungen > Config Editor bei models.providers bearbeiten.

Ja. Deine Instanz kann mehrere LLM-Anbieter parallel konfiguriert haben, zum Beispiel Claude (Anthropic) als Hauptmodell und Ollama auf deinem eigenen Server als Zusatzmodell. Du kannst in Gesprächen jederzeit ein bestimmtes Modell anfordern, z.B. "Benutze ollama/llama3.1:8b für diese Aufgabe". Falls dein lokales Modell gerade nicht erreichbar ist (z.B. Server aus), springt dein Agent automatisch auf das nächste verfügbare Modell zurück. So hast du Datenschutz für sensible Aufgaben und volle Power für den Rest. Die Einrichtung eines lokalen LLMs über ZeroTier ist in der Anleitung "Eigenes LLM zu Hause nutzen" erklärt.

Wenn du möchtest, dass dein Agent standardmäßig dein lokales Modell nutzt (z.B. für DSGVO-Konformität), melde dich beim Support. Wir setzen das Standardmodell dann auf dein lokales Modell um, z.B. auf ollama/llama3.1:8b. Dein Agent nutzt dann primär das lokale Modell und greift nur auf Cloud-Modelle zurück, wenn das lokale nicht erreichbar ist. Voraussetzung: ZeroTier muss eingerichtet sein und dein LLM-Server muss laufen. Details dazu in der ZeroTier-LLM-Anleitung.

Nein. Das Storage-Add-on ist eine separate Festplatte, die neben deinem Server eingebunden wird, keine Erweiterung der eingebauten. Die beiden haben unterschiedliche Aufgaben: Eingebaute Festplatte (40-160 GB je nach Tarif): Hier liegen das Betriebssystem, Docker, OpenClaw selbst und alle installierten Skill-Abhängigkeiten. Diese Systemdateien kannst du nicht verschieben. Storage-Add-on (dein zusätzliches Volume): Eine separate Festplatte für deine eigenen Dateien. Dokumente, Medien, Downloads, Projektdaten. In deinem Agenten erreichbar unter /app/data/customer-storage/. Wenn deine eingebaute Festplatte voll wird, liegt das meistens an Skill-Abhängigkeiten (Python-Pakete, KI-Modelle, etc.) und nicht an deinen eigenen Dateien. Du kannst deinem Agenten sagen, Dateien in /app/data/customer-storage/ zu speichern, damit die eingebaute Festplatte schlank bleibt. Schau dir auch die FAQ "Verbrauchen Skills Speicherplatz?" weiter unten an, um mehr darüber zu erfahren, was Speicher belegt.

Ja, und manchmal ziemlich viel. Wenn ein Skill Systemabhängigkeiten hat (Python-Pakete, CLI-Tools, Medien-Bibliotheken), werden diese beim ersten Start des Skills dauerhaft im Container installiert. Ein einzelner Skill mit vielen Abhängigkeiten kann 500 MB bis 2 GB Speicher verbrauchen.Das fällt besonders beim Budget-Tarif (40 GB) auf, wo der System-Overhead bereits einen erheblichen Teil belegt. Wenn du mehrere Skills mit Systemabhängigkeiten hast (z.B. Videoverarbeitung, Websuche oder Dokumenten-Skills), können die zusammen 3-6 GB verbrauchen.Das Deinstallieren eines Skills entfernt seine Konfiguration, aber nicht die installierten Systempakete. Um diesen Speicher komplett zurückzubekommen, müsstest du die Instanz neu aufsetzen (Rebuild), was alles löscht und neu startet.Um den Speicherverbrauch deiner Skills einzuschätzen, schau dir den Abhängigkeiten-Bereich im Skills-Tab an. Skills mit vielen aufgelisteten Abhängigkeiten belegen tendenziell mehr Speicher.

Die meisten Skill-Probleme liegen an fehlenden Abhängigkeiten. Viele Skills brauchen einen API-Key oder ein bestimmtes Add-on, um zu funktionieren. Zum Beispiel brauchen Skills mit Websuche einen konfigurierten Such-API-Key. Schau dir die Beschreibung des Skills im ClawHub an, dort stehen die Voraussetzungen. Wenn alles richtig aussieht, probiere "Doctor Fix" unter Einstellungen, Fehlerbehebung, um veraltete Plugin-Zustände zurückzusetzen.

Billing (14)

Nein. Wenn du ein Monatsabonnement nutzt (was die meisten Nutzer tun), sind Claws optional. Du brauchst sie nur, wenn du die tägliche Abrechnung wählst oder dein kostenloses Managed-LLM-Nutzungslimit überschreitest. Monatsabonnements decken alles für die normale Nutzung ab.

Claws sind unsere interne Währung. Du kaufst ein Paket, und wir buchen täglich Claws für deine aktiven Dienste ab. Es gibt fünf Pakete: €10 (650 Claws), €20 (1.380 Claws, 6% Bonus), €40 (2.900 Claws, 12% Bonus), €80 (6.100 Claws, 17% Bonus) und €160 (13.000 Claws, 25% Bonus). Je größer das Paket, desto mehr Bonus-Claws bekommst du.

Wir akzeptieren alle gängigen Kredit- und Debitkarten über Stripe: Visa, Mastercard, American Express, Discover und mehr. Apple Pay und Google Pay werden ebenfalls unterstützt. Außerdem kannst du mit Kryptowährungen über Coinbase Commerce bezahlen (Bitcoin, Ethereum und andere gängige Coins).

Da deine Instanz sofort bereitgestellt wird, können wir keine Rückerstattungen anbieten. Mit dem Kauf verzichtest du auf das 14-tägige Widerrufsrecht gemäß § 356 Abs. 5 BGB. Falls etwas auf unserer Seite schiefgeht (z.B. ein Ausfall, den wir verursacht haben), melde dich bei uns. Wir schauen dann, ob wir dir eine Gutschrift geben können.

Deine Instanz wird automatisch pausiert. Wir warnen dich rechtzeitig: bei 3, 2 und 1 Tag Restguthaben. Nach der Pausierung hast du 3 Tage Zeit, um aufzuladen. Danach wird die Instanz endgültig gelöscht. Aber keine Sorge: Wir erstellen vorher automatisch einen Snapshot, damit deine Daten nicht einfach weg sind.

Jeden Tag um 01:00 Uhr Berliner Zeit (MEZ/MESZ) buchen wir Claws von deinem Guthaben ab, je nach Tier. Budget kostet 60 Claws/Tag, Balanced 105 Claws/Tag und Pro 175 Claws/Tag. Wenn du deine Instanz erst im Laufe des Tages erstellst, wird der erste Tag anteilig berechnet. Add-ons werden separat abgerechnet. Deinen Verbrauch kannst du jederzeit im Dashboard einsehen.

Beim Erstellen einer neuen Instanz fällt eine einmalige Einrichtungsgebühr in Claws an: 150 Claws für Budget, 300 für Balanced, 450 für Pro. Die deckt die Bereitstellungskosten deines Servers. Bei Monatsabos gibt es keine Einrichtungsgebühr.

Claws werden auf zwei Arten verbraucht. Nutzer mit täglicher Abrechnung haben einen festen täglichen Abzug je nach Tier (60/105/175 Claws pro Tag für Budget/Balanced/Pro), plus eventuelle Add-on-Kosten. Monatsabonnenten verbrauchen Claws nur, wenn sie ihr kostenloses Managed-LLM-Nutzungslimit überschreiten. In dem Fall wird der zusätzliche LLM-Verbrauch pro Token von deinem Claws-Guthaben abgezogen. Du kannst deinen gesamten Verbrauch im Dashboard verfolgen.

Das hängt von deinem Abrechnungsmodus ab. Nutzer mit täglicher Abrechnung: Deine Instanz wird komplett pausiert. Wir erstellen einen Snapshot deines Servers, dann wird der Server gelöscht, um Kosten zu stoppen. Du hast 3 Tage Zeit zum Aufladen. Danach wird der Snapshot dauerhaft gelöscht. Sobald du mehr Claws auflädst, wird die Instanz automatisch aus dem Snapshot wiederhergestellt. Monatsabonnenten: Wenn deine Claws für den Managed-LLM-Zusatzverbrauch aufgebraucht sind, funktionieren die zusätzlichen KI-Funktionen nicht mehr, bis du auflädst. Deine Instanz selbst läuft normal weiter, da sie durch dein Abonnement abgedeckt ist.

Dein Bot stoppt nicht, wenn du 100% deiner kostenlosen Managed-LLM-Tokens für den Tag erreicht hast. Stattdessen wechselt das System dazu, zusätzliche KI-Nutzung von deinem Claws-Guthaben abzuziehen. Wenn du Claws hast, läuft alles nahtlos weiter. Wenn du keine Claws hast, pausieren die zusätzlichen KI-Funktionen bis zum nächsten Tag, wenn deine kostenlosen Tokens zurückgesetzt werden. Deine Instanz selbst bleibt in jedem Fall online.

Ein paar Sachen helfen. Lange Konversationen sammeln Kontext an, das heißt jede neue Nachricht schickt den gesamten Verlauf an die KI. Nutze regelmäßig /new, um frische Konversationen zu starten. Deaktiviere Skills, die du gerade nicht brauchst, weil jeder Skill bei jeder Anfrage zusätzlichen Overhead erzeugt. Prüfe, ob du Cron-Jobs hast, die häufig laufen, denn die verbrauchen ebenfalls Tokens. Und wenn du ein Modell mit großem Kontextfenster nutzt, überlege ob ein Modell mit kleinerem Fenster reicht, falls du die Extra-Kapazität nicht brauchst.

Bei monatlichen Abonnements kannst du direkt in den Instanzeinstellungen im Dashboard auf ein höheres Tier wechseln. Gehe zu deiner Instanz, öffne die Einstellungen und wähle ein höheres Tier aus. Das Upgrade dauert 2-3 Minuten - deine Instanz ist kurz offline, während der Server durch einen neuen mit mehr Ressourcen ersetzt wird. Deine Daten und Konfiguration bleiben dabei vollständig erhalten. Bei tagesabgerechneten Instanzen ist ein Tarifwechsel nicht möglich. Um das Tier bei täglicher Abrechnung zu wechseln, erstelle eine neue Instanz auf dem gewünschten Tarif und lösche die alte.

Nein. Die Server-Infrastruktur unterstützt keinen Wechsel von einem größeren auf ein kleineres Tier. Wenn du auf ein niedrigeres Tier wechseln möchtest, müsstest du deine aktuelle Instanz kündigen und eine neue auf dem gewünschten Tier erstellen. Das bedeutet, dass du deine Bot-Konfiguration neu einrichten musst (LLM-Key, Telegram-Bot, Persönlichkeit, etc.). Deine alten Instanzdaten werden nicht automatisch übernommen.

Wenn ein Gutschein auf dein Konto angewendet wurde und du ihn entfernen möchtest, kontaktiere support@clawhosters.com. Gutscheine sind mit Abrechnungsdaten verknüpft und können nicht über das Dashboard entfernt werden. Gib deine Konto-E-Mail und den betreffenden Gutschein an, dann kümmern wir uns darum.

Security (9)

Alle Übertragungen sind mit TLS/SSL verschlüsselt, gespeicherte Daten mit AES-256. Die Server stehen in deutschen Tier-3+ Rechenzentren mit physischer Zugangskontrolle. Wir führen regelmäßige Sicherheitsaudits durch, und jeder im Team, der mit Daten arbeitet, ist entsprechend geschult.

Ja. Alle Daten werden in Deutschland gespeichert und verlassen die EU nicht. Du hast sämtliche Rechte nach DSGVO, also Auskunft, Berichtigung, Löschung und Datenübertragbarkeit. Unser Datenschutzkontakt ist unter support@clawhosters.com erreichbar.

Nur du. Unser Support-Team kann bei Bedarf Server-Metadaten einsehen, aber an deine Anwendungsdaten kommt niemand ohne deine ausdrückliche Erlaubnis. Drittanbieter wie Hetzner, Stripe und Coinbase verarbeiten nur die Daten, die sie für ihren Teil des Dienstes brauchen.

Jede Instanz läuft in einem eigenen isolierten Docker-Container mit strikten Ressourcenlimits. Firewall-Regeln blockieren unerwünschten Traffic standardmäßig, und Brute-Force-Schutz sichert den SSH-Zugang. Falls du SSH-Zugang brauchst, ist der verfügbar und per Key-basierter Authentifizierung gesichert.

Deine Daten werden innerhalb von 30 Tagen nach Kündigung gelöscht. Vorher kannst du einen vollständigen Datenexport anfordern. Rechnungs- und Zahlungsdaten müssen wir 10 Jahre aufbewahren, das ist deutsches Steuerrecht. Server-Logs werden nach 90 Tagen automatisch gelöscht.

Du kannst dich mit E-Mail und Passwort oder über Google Sign-In anmelden. Wir empfehlen ein starkes, individuelles Passwort für dein ClawHosters-Konto.

Kontaktiere unser Support-Team unter support@clawhosters.com und beantrage die Kontolöschung. Deine Daten werden innerhalb von 30 Tagen entfernt. Rechnungs- und Zahlungsdaten müssen wir gemäß deutschem Steuerrecht 10 Jahre aufbewahren, aber alle persönlichen und Instanz-Daten werden vollständig gelöscht.

Nein. ClawHosters-Instanzen sind auf OpenClaw-Hosting ausgelegt. Zusätzliche Ports (z.B. 80, 443 für eigene Webserver oder Proxys) werden aus Sicherheitsgründen nicht geöffnet. Jede Instanz ist durch mehrere Firewall-Schichten geschützt, die nur die für OpenClaw nötigen Ports zulassen. Diese Architektur schützt alle Kunden und ist nicht pro Instanz anpassbar. Wenn du neben OpenClaw einen eigenen Webserver oder Proxy betreiben willst, empfehlen wir dafür einen separaten VPS.

Melde dich beim Support mit deiner aktuellen und deiner neuen E-Mail-Adresse. Wir müssen deine Identität verifizieren, bevor wir die Änderung durchführen können.

Troubleshooting (21)

Schau zuerst im Logs-Tab deines Dashboards nach Fehlermeldungen. Das zeigt dir meistens direkt, was schiefläuft. Wenn du etwas Offensichtliches findest, behebe es in deiner Konfiguration. Falls nicht, gehe in die Einstellungen und öffne den Bereich Fehlerbehebung. Probiere diese Schritte der Reihe nach: Config reparieren scannt deine Konfiguration auf häufige Probleme und behebt sie automatisch. Doctor Fix führt eine Diagnose im Container durch und behebt veraltete Plugin-Zustände. Nicht unterbrechend, deine Sitzungen bleiben aktiv. Gateway neustarten lädt den Gateway-Prozess neu, ohne den Container neu zu starten. Ebenfalls nicht unterbrechend, dauert etwa 15 Sekunden. Container neustarten ist die letzte Option. Dabei werden aktive Sitzungen beendet und es dauert etwa 60 Sekunden. Wenn nichts davon hilft, erstelle ein Support-Ticket und füge die Log-Ausgabe aus dem Logs-Tab bei.

Klicke auf der Login-Seite auf "Passwort vergessen" und gib deine E-Mail-Adresse ein. Du bekommst dann einen Link zum Zurücksetzen, der 24 Stunden gültig ist. Falls die E-Mail nicht ankommt oder etwas anderes schiefgeht, schreib an support@clawhosters.com. Wir müssen dann kurz deine Identität verifizieren, bevor wir das Passwort manuell zurücksetzen.

Das passiert, wenn dein Claws-Guthaben aufgebraucht ist. Das System pausiert die Instanz automatisch, damit keine unerwarteten Kosten entstehen. Um wieder loszulegen, lade dein Guthaben auf und klicke im Dashboard auf "Fortsetzen." Deine Daten bleiben 3 Tage lang als Snapshot gesichert. Danach wird die Instanz endgültig gelöscht, also warte nicht zu lange.

Die meisten Instanzen sind in unter 60 Sekunden fertig. Wenn es bei dir länger dauert, liegt das wahrscheinlich an einem kurzfristigen Kapazitätsengpass auf unserer Seite. Warte ein paar Minuten und aktualisiere die Statusseite im Dashboard. Das System erkennt hängende Bereitstellungen automatisch und startet sie bei Bedarf neu.

Der häufigste Grund ist eine Instanz oder ein Add-on, das noch aktiv läuft. Schau im Dashboard nach, welche Dienste gerade laufen. Die tägliche Abrechnung erfolgt um 01:00 Uhr Berliner Zeit (MEZ/MESZ) für alle aktiven Services. Im Transaktionsverlauf siehst du genau, was wann abgebucht wurde. Falls trotzdem etwas nicht stimmt, melde dich beim Support und wir klären das.

Das kann verschiedene Ursachen haben. Am häufigsten blockieren Cron-Jobs die Nachrichten-Warteschlange. Wenn du geplante Aufgaben laufen hast, können diese die Nachrichtenverarbeitung aufhalten. Schau im Logs-Tab nach den Verarbeitungszeiten, um zu sehen, wo die Verzögerung liegt.Lange Konversationen verlangsamen ebenfalls alles. Je mehr Kontext sich über viele Nachrichten ansammelt, desto länger braucht jede neue Antwort, weil das Modell den gesamten Verlauf verarbeitet. Nutze den /new-Befehl, um eine neue Konversation zu starten, und schau ob das hilft.Prüfe außerdem die Statusseite deines LLM-Anbieters auf Ausfälle. Und bedenke, dass die Modellwahl eine Rolle spielt. Günstigere Modelle sind nicht automatisch schneller. Gemini Flash und Deepseek antworten tendenziell schnell, während größere Modelle naturgemäß mehr Zeit brauchen.

Passe deine System-Instruktionen an und sei konkreter bei dem, was du erwartest. Eine niedrigere Temperatur macht die Antworten fokussierter und weniger kreativ. Falls die Antworten immer noch nicht passen, wechsle zu einem stärkeren Modell. Prüfe auch, ob dein Kontextfenster für die Länge deiner Konversationen ausreicht.

Konfigurationsänderungen werden per Live-Reload angewendet. Wenn eine fehlerhafte Konfiguration die Instanz zum Absturz bringt, gehe in die Einstellungen und öffne den Bereich Fehlerbehebung. Nutze "Config reparieren", um häufige Konfigurationsprobleme automatisch zu erkennen und zu beheben. Falls das nicht hilft, schau im Logs-Tab nach der genauen Fehlermeldung.Häufige Ursachen sind ein ungültiges API-Schlüssel-Format, ein nicht unterstützter Modellname oder fehlerhaftes JSON in den erweiterten Einstellungen. Du kannst auch "Doctor Fix" ausprobieren, das veraltete Plugin-Zustände behebt, ohne die Instanz zu unterbrechen.

Die Funktion "Auf Standardwerte zurücksetzen" im Dashboard setzt deine gesamte Konfiguration auf den Ausgangszustand zurück. Alle individuellen Einstellungen (Modellwahl, Skills, Umgebungsvariablen, System-Prompt, Cron-Jobs, Messenger-Konfiguration) gehen dabei verloren. Diese Aktion lässt sich nicht rückgängig machen.Falls du ein Backup hattest, bevor du zurückgesetzt hast: Gehe zum Backups-Tab in deinem Dashboard und stelle das Backup wieder her, das vor dem Reset erstellt wurde. Prüfe die Zeitstempel sorgfältig. Backups, die nach dem Reset erstellt wurden, enthalten den leeren Zustand.Falls du kein Backup hattest: Du musst deine Einstellungen manuell neu konfigurieren. Gehe zu den Einstellungen und richte dein Modell, deine Skills und deine Messenger-Verbindungen neu ein.Tipp für die Zukunft: Aktiviere das Backup-Add-on, bevor du größere Änderungen an deiner Konfiguration vornimmst. So hast du immer einen Wiederherstellungspunkt. Du findest das Backup-Add-on im Backups-Tab deines Dashboards.

Das Dashboard zeigt "Unhealthy" an, wenn der Health-Check deine Instanz nicht erreichen kann. Das bedeutet meistens, dass der Container hängt oder überlastet ist. Gehe in die Einstellungen und öffne den Bereich Fehlerbehebung. Starte mit "Doctor Fix" (nicht unterbrechend). Wenn das nicht hilft, probiere "Gateway neustarten." Als letzte Option nutze "Container neustarten" (das beendet aktive Sitzungen).Falls die Instanz nach all diesen Schritten weiterhin als unhealthy angezeigt wird, erstelle ein Support-Ticket und füge die Log-Ausgabe aus dem Logs-Tab bei.

Du findest diese unter Einstellungen im Bereich Fehlerbehebung: Config reparieren: Scannt deine Konfiguration auf häufige Probleme und behebt sie automatisch. Kann die Instanz kurz neu starten. Doctor Fix: Führt eine Diagnose im Container durch. Behebt veraltete Plugins, stellt Kanalverbindungen wieder her. Nicht unterbrechend, deine Sitzungen bleiben aktiv. Gateway neustarten: Lädt den Gateway-Prozess neu, ohne den Container neu zu starten. Nicht unterbrechend, dauert etwa 15 Sekunden. Guter erster Schritt bei Verbindungsproblemen. Container neustarten: Vollständiger Container-Neustart. Unterbrechend, beendet aktive Sitzungen. Nur als letzte Option nutzen. Dauert etwa 60 Sekunden. Führt danach automatisch Doctor Fix aus. Session-Sperren löschen: Entfernt veraltete Lock-Dateien. Nutze das, wenn deine Instanz eingefroren wirkt, aber der Status "Running" anzeigt. Gerät genehmigen: Genehmigt CLI-Pairing-Anfragen von deinem Terminal.

Das bedeutet, dass dein LLM-Anbieter Anfragen ablehnt, weil du deren Rate-Limits überschritten hast. Das ist kein ClawHosters-Problem. Es ist ein Limit, das dein API-Anbieter (Anthropic, OpenAI usw.) basierend auf deinem Konto-Tier setzt.Sowohl Anthropic als auch OpenAI nutzen ein Stufen-System, bei dem neue Konten mit sehr niedrigen Limits starten. Ein Tier-Upgrade ist meistens die Lösung.Anthropic (Claude) Tiers Anthropic hat 4 Nutzungsstufen. Tier-Upgrades passieren automatisch, sobald du genug Guthaben auf console.anthropic.com kaufst. Tier 1 ($5 Guthaben): 50 Anfragen/Min, 30.000 Input-Tokens/Min Tier 2 ($40 Guthaben): 1.000 Anfragen/Min, 450.000 Input-Tokens/Min Tier 3 ($200 Guthaben): 2.000 Anfragen/Min, 800.000 Input-Tokens/Min Tier 4 ($400 Guthaben): 4.000 Anfragen/Min, 2.000.000 Input-Tokens/Min Der Sprung von Tier 1 zu Tier 2 bedeutet 20x mehr Kapazität. Wenn du Rate-Limits bei Claude triffst, löst ein Upgrade auf Tier 2 für insgesamt $40 Guthaben das Problem fast immer.OpenAI (GPT) Tiers OpenAI hat 5 Nutzungsstufen. Anders als bei Anthropic gibt es bei OpenAI zusätzlich eine Wartezeit (Tage seit der ersten Zahlung), bevor du aufsteigen kannst. Tier 1 ($5 bezahlt): 500 Anfragen/Min, 30.000 Tokens/Min (GPT-4o) Tier 2 ($50 bezahlt + 7 Tage): 5.000 Anfragen/Min, 450.000 Tokens/Min Tier 3 ($100 bezahlt + 7 Tage): 5.000 Anfragen/Min, 800.000 Tokens/Min Tier 4 ($250 bezahlt + 14 Tage): 10.000 Anfragen/Min, 2.000.000 Tokens/Min Tier 5 ($1.000 bezahlt + 30 Tage): 10.000 Anfragen/Min, 30.000.000 Tokens/Min OpenAIs Tier 1 erlaubt mehr Anfragen pro Minute (500 vs. Anthropics 50), aber das Token-pro-Minute-Limit ist ähnlich eng. Der Sprung zu Tier 2 ($50 + 7 Tage Wartezeit) bringt dir 10x mehr Kapazität. Verwalte deinen Tier auf platform.openai.com unter Settings.OpenAI Codex OAuth (ChatGPT-Abo) Wenn du dich per OpenAI Codex OAuth angemeldet hast (also über dein ChatGPT Plus/Pro-Abo statt mit einem API Key), gelten andere Rate-Limits. OAuth-Tokens haben in externen Tools wie OpenClaw niedrigere Limits als direkte API Keys. Das bedeutet: Codex kann bei dir in der App noch funktionieren, während OpenClaw schon ans Limit stößt.Der Grund: OpenAI unterscheidet zwischen der Nutzung innerhalb ihrer eigenen Apps (Codex CLI, ChatGPT) und der Nutzung über OAuth in Drittanbieter-Tools. Für Drittanbieter sind die Limits strenger.Wenn du OAuth nutzt und Rate-Limits bekommst, hast du drei Optionen: Fallback-Modelle konfigurieren: Nutze die inkludierten Managed Models (z.B. clawhosters/deepseek-reasoner) als Fallback, damit dein Agent weiterarbeiten kann, wenn OAuth ans Limit kommt. Auf einen API Key wechseln: Ein OpenAI API Key (platform.openai.com) hat deutlich höhere Limits als OAuth. Trage ihn als openai-Provider ein statt openai-codex. Nutzung reduzieren: Weniger gleichzeitige Agenten, Cron-Jobs und Hintergrund-Tasks verringern den Token-Verbrauch pro Minute. Wichtig: Modelle mit dem Prefix openai/ brauchen einen API Key. Modelle mit openai-codex/ nutzen OAuth. Wenn du nur OAuth hast, funktionieren openai/-Modelle nicht als Fallback, weil kein API Key vorhanden ist. Nutze stattdessen clawhosters/-Modelle als Fallback.Andere Anbieter Google (Gemini), DeepSeek und OpenRouter haben ebenfalls Rate-Limits, aber die sind auf Einsteiger-Niveau in der Regel großzügiger. Prüfe das Dashboard deines Anbieters für die genauen Werte.Was du jetzt tun kannst Prüfe deinen Tier in der Console deines Anbieters (console.anthropic.com oder platform.openai.com) Upgrade deinen Tier, indem du mehr Guthaben kaufst, falls du auf Tier 1 bist Füge ein Fallback-Modell hinzu im Einstellungen-Tab. Dein Plan enthält kostenlose Modelle (Gemini 2.5 Flash Lite, DeepSeek R1, DeepSeek V3), die automatisch einspringen, wenn dein Hauptmodell an Rate-Limits stößt. Ohne Fallback scheitert der Agent einfach, statt auf ein Backup umzuschalten.

Dieser Fehler kommt von der ClawHub-Registry, nicht von ClawHosters. ClawHub begrenzt, wie viele Installationsanfragen von derselben IP-Adresse in kurzer Zeit kommen dürfen. Da deine Instanz auf einem VPS läuft, teilt sie sich möglicherweise einen IP-Bereich mit anderen Nutzern, wodurch das Limit schneller erreicht wird.Warte etwa 5 Minuten und versuche dann, den Skill erneut über den Skills-Tab zu installieren. Das Rate-Limit setzt sich nach einer kurzen Wartezeit zurück. Wenn es nach mehreren Versuchen weiterhin fehlschlägt, erstelle ein Support-Ticket und wir installieren den Skill manuell für dich.Hinweis: Das grüne "Skill found"-Häkchen im Installationsdialog bestätigt nur, dass das URL-Format korrekt ist. Es prüft nicht, ob der Skill in dem Moment tatsächlich herunterladbar ist. Du kannst also "Skill found" sehen und trotzdem beim eigentlichen Installieren ein Rate-Limit treffen.

Manche ClawHub-Skills brauchen nach der Installation noch zusätzliche Einrichtung. Schau auf der Skill-Seite auf clawhub.ai nach Anleitungen. Häufige Punkte: Umgebungsvariablen: Manche Skills brauchen API-Keys oder Konfigurationswerte. Gehe zum Skills-Tab, finde den Skill und prüfe, ob erforderliche Umgebungsvariablen aufgelistet sind. Du kannst sie direkt im Dashboard setzen. Abhängigkeiten: Manche Skills benötigen Systempakete (wie ein CLI-Tool oder eine Python-Bibliothek). Der Skills-Tab zeigt einen "Dependencies"-Bereich mit Installationsbuttons für jede Abhängigkeit. Klicke auf den Button und warte, bis die Installation abgeschlossen ist. Neustart nötig: Nach der Installation eines Skills mit Abhängigkeiten, probiere "Gateway neustarten" in den Einstellungen, damit die Änderungen übernommen werden. Falls der Skill installiert und aktiviert ist, aber trotzdem nicht reagiert, schau im Logs-Tab nach Fehlermeldungen, die den Skill-Namen erwähnen.

Mehrere Dinge teilen sich den Speicher deiner Instanz, und das meiste davon ist systemseitig, nicht deine Daten. Hier ist die typische Aufteilung für den Budget-Tarif (40 GB): OpenClaw Docker-Image (~11 GB). Die Basis-Anwendung mit allen Abhängigkeiten. Skill-Abhängigkeiten (variiert, kann 2-6 GB sein). Skills, die Systempakete brauchen (Python-Bibliotheken, CLI-Tools, Medien-Tools), installieren diese dauerhaft im Container. Je mehr Skills du hinzufügst, desto mehr wächst das. System-Reserve (5 GB). Eine reservierte Datei als Notfall-Puffer, falls die Festplatte voll wird. Playwright-Browser (~650 MB). Vorinstalliert für Web-Browsing- und Automatisierungs-Skills. Deine Daten (Sitzungen, Gedächtnis, Konfiguration). Normalerweise klein, oft unter 100 MB. Update-Backup-Images. Nach einem OpenClaw-Update wird ein Backup der vorherigen Version vorübergehend aufbewahrt. Um zu prüfen, was Platz verbraucht, öffne den Datei-Explorer-Tab in deinem Dashboard. Er zeigt deine Dateien und die gesamte Speicherauslastung. Falls du SSH-Zugang aktiviert hast, kannst du du -h --max-depth=1 / auf dem Server ausführen für eine Aufschlüsselung nach Verzeichnissen.Um Platz freizugeben: Entferne Skills, die du nicht nutzt. Das Deinstallieren eines Skills gibt die bereits installierten Systempakete nicht zurück, verhindert aber weiteres Wachstum. Ein Rebuild gibt dir einen sauberen Neustart (du musst dann alles neu konfigurieren). Alte Sitzungen aufräumen. Führe openclaw sessions cleanup aus, um alte Konversationsdaten zu löschen. Kontaktiere den Support. Wir können nach übrig gebliebenen Backup-Images oder anderem freimachbarem Speicher auf deiner Instanz schauen. Wenn die Auslastung regelmäßig über 80% liegt, ziehe ein Upgrade auf den Balanced-Tarif (80 GB) in Betracht. Siehe Ressourcen-Limits verstehen für Tarif-Details.

Wenn du deinen Assistenten bittest, dich an etwas zu erinnern, erstellt er einen Cron-Job (eine geplante Aufgabe). Damit die Erinnerung tatsächlich als Nachricht bei dir ankommt, muss der Cron-Job die richtige Konfiguration haben. Konkret braucht er ein "agentTurn"-Payload mit "announce"-Zustellmodus. Wenn dein Assistent stattdessen einen "systemEvent"-Job erstellt, läuft die Erinnerung still im Hintergrund ab, ohne dir eine Benachrichtigung zu schicken.Ob dein Assistent das richtig einrichtet, hängt vom KI-Modell ab. Leichtgewichtige Modelle (wie Gemini Flash Lite) kennen die korrekte Konfiguration für Erinnerungen oft nicht. Leistungsstärkere Modelle kommen damit besser zurecht.Die einfachste Lösung: Installiere den cron-mastery-Skill von ClawHub. Geh zum Skills-Tab in deinem Dashboard und suche nach "cron-mastery". Dieser Skill bringt deinem Assistenten bei, wie das Planungssystem von OpenClaw funktioniert. Er erklärt Cron-Ausdrücke, Zeitzonen-Handling und den Unterschied zwischen stillen Hintergrund-Jobs und Jobs, die dir tatsächlich eine Nachricht senden.Wichtig: Manche Community-Erinnerungs-Skills auf ClawHub (wie z.B. "remind-me-pro") brauchen Python-Tools (uv oder pip), die auf ClawHosters nicht verfügbar sind. Falls du einen Erinnerungs-Skill installierst und Fehler über fehlende Tools im Logs-Tab siehst, deinstalliere ihn und bleib stattdessen bei cron-mastery. Der funktioniert ohne zusätzliche Abhängigkeiten.Erinnerungen über Nacht "vergessen"? Wenn dein Assistent sagt, er merkt sich etwas, aber die Erinnerung am nächsten Tag weg ist, liegt das wahrscheinlich am täglichen Session-Reset. Session-Resets löschen den Gesprächskontext (standardmäßig um 4 Uhr morgens). Damit eine Erinnerung über Sessions hinweg bestehen bleibt, muss sie als richtiger Cron-Job gespeichert werden, nicht nur im Gesprächsverlauf notiert. Mit cron-mastery weiß dein Assistent, dass er einen persistenten Cron-Job anlegen muss.Probiere nach der Installation eine neue Erinnerung aus. Falls es immer noch nicht klappt, schau im Cron-Tab deines Dashboards nach, ob Jobs erstellt werden, und prüfe den Logs-Tab auf Fehlermeldungen.

Manche ClawHub-Skills basieren auf Python-Skripten und brauchen Tools wie uv (ein Python-Paketmanager) oder pip (ein Python-Paketinstaller). ClawHosters-Container enthalten kein Python, uv oder pip, daher können solche Skills auf deiner Instanz nicht laufen. Im Logs-Tab siehst du dann typischerweise Fehler wie "pip: not found" oder "uv: not found".Das ist kein Fehler. Es ist ein Kompatibilitätsproblem zwischen den Anforderungen des Skills und der ClawHosters-Umgebung. Nicht jeder Skill auf ClawHub ist für jedes Setup gemacht.Was du tun kannst: Prüfe den Logs-Tab auf die genaue Fehlermeldung. Wenn ein fehlendes Tool erwähnt wird (uv, pip, python3 usw.), braucht der Skill Python-Tools. Deinstalliere den Skill über den Skills-Tab. Ohne die nötigen Tools wird er nicht funktionieren. Suche nach einer Alternative auf ClawHub, die kein Python braucht. Skills, die nur aus einer SKILL.md-Datei bestehen (reine Wissens-Skills), funktionieren immer. Skills, die das exec-Tool mit Python-Skripten nutzen, möglicherweise nicht. Prüfe die ClawHub-Seite des Skills vor der Installation. Wenn dort uv oder pip unter Anforderungen oder Abhängigkeiten aufgelistet sind, wird der Skill auf ClawHosters nicht funktionieren. Für Erinnerungen speziell: Der cron-mastery-Skill ist ein reiner Wissens-Skill, der ohne zusätzliche Abhängigkeiten funktioniert. Siehe "Meine geplanten Erinnerungen werden nicht gesendet" weiter oben.

Fehlercode 1000 ist ein normaler WebSocket-Close-Code. Er bedeutet, dass die Verbindung sauber geschlossen wurde, nicht dass etwas abgestürzt ist. Du siehst das bei Konfigurations-Reloads, nach abgeschlossenen Tool-Aufrufen oder wenn das Gateway nach einem routinemäßigen Health-Check neu verbindet.Wenn er gelegentlich in deinen Logs auftaucht, ist er harmlos und du kannst ihn ignorieren. Das gehört zum normalen Gateway-Betrieb.Wenn er dagegen ständig auftaucht und Nachrichten nicht mehr durchkommen, ist das eine andere Situation. Geh in dem Fall zu den Einstellungen und öffne den Bereich Fehlerbehebung. Probiere zuerst "Gateway neustarten" (nicht unterbrechend, dauert etwa 15 Sekunden). Falls das Problem weiterbesteht, nutze "Container neustarten" als letzte Option.

Das passiert, wenn deine Konversation zu lang für das Kontextfenster des Modells wird. Jede Nachricht, jedes Tool-Ergebnis und jede Workspace-Datei vergrößert den Kontext. Wenn das Limit überschritten ist, kann das Modell keine Tool-Aufrufe mehr verarbeiten, also auch keine Dateien schreiben. Text im Chat ausgeben funktioniert noch (kürzere Antworten), aber eine Datei zu schreiben erfordert den vollen Kontext plus Dateiinhalt plus die Tool-Aufruf-Struktur. Diese Kombination sprengt das Limit.Der Fehler im Logs-Tab sieht so aus: Context overflow: prompt too large for the model. Try /reset (or /new) to start a fresh session, or use a larger-context model.Schnelle Lösung Sende /new als einzelne Nachricht an deinen Bot. Das löscht den Konversationsverlauf und gibt dir ein sauberes Kontextfenster. Dann bitte den Agenten in dieser frischen Sitzung erneut, die Datei zu schreiben.Vorbeugen Aktiviere Auto-Komprimierung. Das fasst ältere Konversationsverläufe automatisch zusammen, damit der Kontext handhabbar bleibt. Frag deinen Agenten: "Enable compaction mode safeguard." Oder setze es manuell im Config Editor: agents.defaults.compaction.mode auf safeguard. Nutze ein Modell mit größerem Kontextfenster. DeepSeek V3 Chat hat 131K Tokens. Gemini 2.5 Flash Lite (in deinem Plan enthalten) hat 1 Million Tokens. Für Aufgaben mit langen Konversationen und Dateischreiben hilft ein Wechsel zu Gemini Flash Lite als Primärmodell deutlich. Das kannst du im AI Setup-Tab ändern. Halte Konversationen kürzer bei Datei-Aufgaben. Wenn du den Agenten einen Bericht schreiben lassen willst, starte vorher eine neue Sitzung. Bitte nicht am Ende eines langen Hin-und-Her um das Dateischreiben. Warum Fallback-Modelle nicht immer helfen Wenn dein Primärmodell überläuft, arbeitet der Agent die Fallback-Kette ab. Aber Fallback-Modelle haben oft noch kleinere Kontextfenster (besonders kostenlose Modelle). Der Overflow passiert dann einfach beim nächsten Modell erneut.

Wenn du OpenRouter nutzt und 404 No endpoints available matching your guardrail restrictions and data policy siehst, blockieren deine OpenRouter-Datenschutzeinstellungen die kostenlosen Modell-Endpunkte.OpenRouter verlangt, dass du Logging und Trainingsdaten für Gratismodelle aktivierst. Ohne das liefert die kostenlose Stufe keine Antworten.So behebst du es Gehe zu openrouter.ai/settings/privacy Stelle sicher, dass Logging für Gratismodelle aktiviert ist Prüfe, ob du nicht zu viele Anbieter in deinen Provider-Einstellungen blockiert hast Falls du "Zero Data Retention" (ZDR) aktiviert hast, stehen einige kostenlose Endpunkte nicht zur Verfügung. Deaktiviere ZDR oder wechsle zu kostenpflichtigen Modellen. Nach dem Aktualisieren der Einstellungen sollten deine openrouter/free und openrouter/auto Fallback-Modelle wieder funktionieren.

Öffne das Support-Ticket-System in deinem Dashboard und wähle die Kategorie "Fehlerbericht". Beschreibe die Schritte zum Reproduzieren, was du erwartet hast und was tatsächlich passiert ist. Screenshots oder Fehlermeldungen helfen uns, das Problem schneller zu beheben.

Legal (6)

Die vollständigen Nutzungsbedingungen kannst du unter clawhosters.com/terms nachlesen. Dort steht alles zu unserer Acceptable Use Policy, den Abrechnungsbedingungen, Haftungsbeschränkungen und zur Streitbeilegung. Mit der Nutzung von ClawHosters akzeptierst du diese Bedingungen.

Kurz gesagt: Alles, was illegal oder schädlich ist. Dazu gehören Malware, Spam, Phishing, Urheberrechtsverletzungen, Krypto-Mining ohne Genehmigung, DDoS-Angriffe, Netzwerk-Scans und das Hosting illegaler Inhalte. Bei Verstößen wird dein Account sofort gekündigt, ohne Rückerstattung.

Wir stellen unsere Dienste "as is" bereit und können keine durchgehende Verfügbarkeit garantieren. Unsere Haftung ist auf die Gebühren begrenzt, die du in den letzten drei Monaten gezahlt hast. Für Datenverlust, Ausfälle bei Drittanbietern, höhere Gewalt oder indirekte Schäden haften wir nicht.

Es gilt deutsches Recht. Das UN-Kaufrecht ist ausgeschlossen. Falls es zu einem Streit kommt, versuchen wir das zuerst direkt zu klären. Die EU bietet außerdem eine Plattform zur Online-Streitbeilegung unter ec.europa.eu/consumers/odr/ an.

Weil wir deinen Server sofort nach dem Kauf bereitstellen, verzichtest du auf das 14-tägige Widerrufsrecht nach EU-Verbraucherrecht (§ 356 Abs. 5 BGB). Das wird dir beim Checkout deutlich angezeigt und du musst es vor dem Abschluss bestätigen.

ClawHosters wird von Daniel Samer in Deutschland betrieben und ist ein Dienst von Yixn.io. Du erreichst uns unter support@clawhosters.com. Das Impressum findest du unter yixn.io/de/impressum. Bei Fragen zum Datenschutz kannst du dieselbe Adresse verwenden.

Getting Started (11)

ClawHosters ist Managed Hosting für OpenClaw AI-Agenten. Wir kümmern uns um die Server-Infrastruktur, Sicherheit und Wartung, damit du dich voll auf deinen AI-Agenten konzentrieren kannst. Alle Server stehen in deutschen Rechenzentren und sind DSGVO-konform.

Nachdem du dich registriert und angemeldet hast, klicke im Dashboard auf "Neue Instanz". Wähle deinen Abrechnungsmodus (täglich oder monatlich), dann deinen Tarif (Budget, Balanced oder Pro) und bestätige die Erstellung. In der Regel dauert die Bereitstellung unter 60 Sekunden. Du bekommst eine E-Mail, sobald deine Instanz bereit ist.

Es gibt drei Tarife. Budget (19 EUR/Monat oder 60 Claws/Tag) mit 2 vCPU, 4 GB RAM und 40 GB Speicher. Balanced (35 EUR/Monat oder 105 Claws/Tag) mit 4 vCPU, 8 GB RAM und 80 GB Speicher. Das ist auch der beliebteste Tarif. Pro (59 EUR/Monat oder 175 Claws/Tag) mit 8 vCPU, 16 GB RAM und 160 GB Speicher für anspruchsvollere Setups. Bei allen Tarifen sind 20 TB Traffic inklusive.

Nein. Die Einrichtung läuft über einen geführten Setup-Wizard, der dich Schritt für Schritt durchführt.

Noch nicht, aber wir planen das. Im Moment müsstest du eine neue Instanz im gewünschten Tarif erstellen. Wir arbeiten daran, Tarifwechsel direkt in einem zukünftigen Update möglich zu machen.

Per E-Mail an support@clawhosters.com. Balanced- und Pro-Kunden bekommen priorisierten Support. Du kannst auch direkt im Dashboard ein Support-Ticket erstellen. Wir antworten in der Regel innerhalb von 24 Stunden an Werktagen.

Ja. Neue Kunden bekommen eine kostenlose Testphase mit vollem Zugriff auf alle Funktionen. Deine Karte wird erst nach Ende der Testphase belastet, und du kannst jederzeit vorher kündigen.

Nein. Jeder Plan enthält kostenlose KI-Modelle (Gemini 2.5 Flash Lite, DeepSeek R1, DeepSeek V3 und Kimi K2.5) mit täglichen und monatlichen Token-Limits. Kein API-Key nötig. Wer ein anderes Modell (wie Claude oder GPT-4), mehr Kapazität oder unbegrenzte Nutzung möchte, kann jederzeit einen eigenen API-Key (BYOK) von jedem unterstützten Anbieter mitbringen. Das ist auch kostenlos, du zahlst nur direkt bei deinem Anbieter.

Ein API-Schlüssel ist eine Zugangsberechtigung von einem KI-Anbieter (wie Anthropic, OpenAI oder Google), die es deiner OpenClaw-Instanz ermöglicht, deren KI-Modelle zu nutzen. Stell dir das wie ein Passwort vor, das deinen Assistenten mit einem bestimmten KI-Gehirn verbindet. Du brauchst aber keinen, um loszulegen. Jeder Plan enthält kostenlose KI-Modelle (Gemini 2.5 Flash Lite, DeepSeek R1, DeepSeek V3 und Kimi K2.5) mit täglichen und monatlichen Token-Limits. API-Schlüssel sind nur relevant, wenn du ein anderes Modell nutzen oder über BYOK (Bring Your Own Key) unbegrenzte Nutzung haben möchtest.

ClawHosters unterstützt alle großen KI-Anbieter. Anthropic (Claude-Modelle, empfohlen für Coding und Automatisierung), OpenAI (GPT-4o), Google (Gemini), OpenRouter (Zugang zu über 200 Modellen mit einem Schlüssel), DeepSeek, Mistral und Groq. Über OpenRouter hast du auch Zugang zu datenschutzorientierten und Open-Source-Modellen.

Jeder Anbieter hat seinen eigenen Prozess, aber es funktioniert überall ähnlich. Registriere dich auf deren Website, hinterlege eine Zahlungsmethode und erstelle einen API-Schlüssel. Für Anthropic gehst du zu console.anthropic.com. Für OpenAI zu platform.openai.com. Für Google zu aistudio.google.com. Für OpenRouter zu openrouter.ai. Wenn du ein Claude Pro- oder Max-Abo hast, kannst du auch claude setup-token in deinem Terminal ausführen, um einen Token zu generieren.

Isometric OpenClaw deployment illustration

OpenClaw ohne den Aufwand

Dein eigener KI-Assistent läuft in 2 Minuten. Wir kümmern uns um Server, Sicherheit und Updates. Du chattest einfach.