Home Assistant kann das Licht ausschalten, wenn der Bewegungsmelder nichts mehr erkennt. Das ist Automatisierung. Aber was passiert, wenn der Sensor um 2:30 Uhr nachts anschlägt und Du etwas Schlaueres brauchst als eine simple "Licht an / Licht aus"-Regel? Du brauchst Logik. Du brauchst ein LLM.
OpenClaw macht aus Home Assistant etwas, das es allein nicht sein kann: ein Smart Home, das tatsächlich mitdenkt. Nicht nur auf Trigger reagiert, sondern Kontext abwägt, mehrstufige Aktionen verkettet und über Grenzen hinausgeht, die Dein Automation-YAML niemals erreicht.
Laut Home Assistants State of the Open Home 2025 hat die Plattform letztes Jahr die 2-Millionen-Marke bei aktiven Installationen geknackt. Auf GitHub war es 2024 das Open-Source-Projekt Nr. 1 nach Anzahl der Contributors. Trotzdem bleibt der eingebaute Sprachassistent Assist auf simples Intent Matching beschränkt. "Schalte das Küchenlicht an" funktioniert. "Wenn ich zur Arbeit fahre, schalte alles aus außer der Kühlschrankkamera und stelle die Heizung auf Eco" scheitert.
Genau diese Lücke füllt ein Home Assistant LLM.
Was OpenClaw in der Praxis ermöglicht
Vergiss die Spielzeug-Demos. Das hier bauen Community-Mitglieder gerade wirklich.
Ein Nutzer hat OpenClaw mit seiner E-Mail-Inbox verbunden. Wenn eine dringende Nachricht vom Chef nach 9 Uhr morgens eintraf und er noch schlief, schickte OpenClaw einen Telegram-Alert. Keine Reaktion? Dann wurden schrittweise Smart-Home-Geräte als Wecker aktiviert. Das ist domainübergreifende Logik: E-Mail-Inhalt, Tageszeit, Reaktionsstatus und Smart-Home-Aktionen, alles miteinander verkettet. Home Assistant allein kann das nicht.
Weitere Anwendungsfälle, die Leute tatsächlich im Einsatz haben:
Kontextabhängige Sicherheitswarnungen, die Schloss-Status und aktuelle Muster prüfen, bevor sie eine Alarmstufe festlegen
Abwesenheits-Automationen in natürlicher Sprache: "Wenn ich gehe, Tür abschließen, Licht aus, Heizung runter"
E-Auto-Laden geplant gegen Stromtarife und Solarprognosen
Sprachsteuerung über FreePBX-Telefonanlagen als Voice-to-Agent-Pipeline
Zwei Wege zum Setup
Weg 1: HAOS Add-on. Wenn Du Home Assistant OS nutzt, installiert das techartdev Add-on OpenClaw direkt in Supervisor. Es unterstützt amd64, aarch64 (Pi 4/5) und armv7. Alles läuft lokal auf Deiner Hardware.
Weg 2: Externe Instanz via REST API. Das ist der Weg für ClawHosters-Nutzer, Docker-Only-Installationen oder alle, die OpenClaw bereits woanders laufen haben. Erstelle einen Long-Lived Access Token in Deinem HA-Profil, richte OpenClaw auf Deine Home Assistant URL und installiere den homeassistant-assist Skill. Dieser Skill leitet Deine natürliche Sprache über die eingebaute Assist API von HA, statt rohe Entity-Aufrufe zu bauen. Das spart Tokens und läuft stabiler.
Wenn Dein OpenClaw remote läuft (zum Beispiel auf ClawHosters), muss Dein Home Assistant aus dem Internet erreichbar sein. Zwei Optionen: Nabu Casa für 6,50 USD/Monat übernimmt SSL und Routing ohne Konfiguration, oder ein kostenloser Cloudflare Tunnel, falls Du eine eigene Domain hast.
Was Dein Netzwerk verlässt (und was bleibt)
Das ist wichtig. Smart-Home-Befehle bleiben lokal. Wenn Du sagst "Schlafzimmerlicht aus", verarbeitet Home Assistant den Geräteaufruf in Deinem LAN. Was Dein Netzwerk verlässt, ist die natürlichsprachliche Anfrage selbst. Die geht an den Cloud-LLM-Anbieter Deiner Wahl (Claude, GPT-4, Gemini).
Das ist deutlich privater als Alexa, wo Deine Sprache aufgezeichnet und gespeichert wird. Aber es sind nicht null Daten, die Dein Zuhause verlassen.
Für volle Privatsphäre kannst Du ein lokales Modell über Ollama betreiben. Der Nachteil: Geschwindigkeit. Rechne mit 30 bis 90 Sekunden pro komplexer Anfrage auf einer Consumer-GPU, verglichen mit circa 1,5 Sekunden bei Claude. Ich denke, für die meisten Leute ist die Cloud-Latenz in Ordnung und der Privatsphäre-Kompromiss vertretbar. Aber das musst Du selbst entscheiden.
Ehrliche Einschränkungen
Kein Grund, so zu tun als wäre alles perfekt.
Cloud-LLM-Antworten brauchen 1,2 bis 1,5 Sekunden. Für zeitkritische Automationen (bewegungsgesteuertes Licht) bleib bei nativen HA-Automationen.
Entity-Benennung zählt. Wenn Deine Geräte "Light 1" und "Light 2" heißen, wird das LLM Probleme haben. Beschreibende Namen wie "Küche Deckenleuchte" machen einen echten Unterschied.
Das HAOS Add-on funktioniert nur mit Home Assistant OS oder Supervised Mode. Wer Core via Docker nutzt, braucht den externen Weg.
Prompt Injection ist ein echtes Thema. Stelle kritische Geräte (Schlösser, Garagentore, Alarmanlagen) nicht ohne Bestätigungsabfragen zur Verfügung.
Loslegen
Schon auf ClawHosters? Du kannst Dein Home Assistant in unter fünf Minuten verbinden. Schau Dir unseren Setup-Guide an, installiere den homeassistant-assist Skill und trage Deinen Long-Lived Access Token ein.
Noch nicht am Start? Pläne starten ab 19 EUR/Monat mit automatischen Updates, Backups und einem kostenlosen KI-Tier inklusive. Du kannst auch unseren Security Hardening Guide lesen, um alles abzusichern, oder Dir anschauen, wie Du Token-Kosten optimierst, wenn Du Dein Home Assistant LLM im größeren Stil betreibst.