Abo -10% SUB-10
Claws -25% LAUNCH-CLAWS
KI Agent Gedächtnis in OpenClaw: Was zwischen den Sessions wirklich passiert
$ ./blog/guides
Anleitungen

KI Agent Gedächtnis in OpenClaw: Was zwischen den Sessions wirklich passiert

ClawHosters
ClawHosters von Daniel Samer
6 Min. Lesezeit

Dein KI-Agent hat gestern alles vergessen, was du ihm beigebracht hast. Jede Vorliebe, jedes Projektdetail, jede Regel, für die du eine Stunde gebraucht hast. Weg.

Das KI Agent Gedächtnis in OpenClaw funktioniert grundlegend anders als du vielleicht erwartest. Das ist kein Bug. So funktionieren LLMs. Wie Leonie Monigatti erklärt, sind große Sprachmodelle von Haus aus zustandslos. "Each time is essentially a fresh start. The LLM has no memory of previous inputs." OpenClaw löst dieses Problem mit einem dateibasierten Gedächtnissystem. Aber das System hat scharfe Kanten, die du erst findest, wenn etwas kaputtgeht.

Wie das KI Agent Gedächtnis in OpenClaw tatsächlich funktioniert

Das Design ist erstaunlich simpel. Laut OpenClaws offizieller Dokumentation gilt: "The files are the source of truth; the model only remembers what gets written to disk."

Zwei Dateien tragen die Last:

MEMORY.md speichert kuratierte Langzeitfakten. Deinen Namen, deine Vorlieben, projektspezifische Regeln. Diese Datei verliert nie an Relevanz. Wenn du willst, dass der Agent sich dauerhaft an etwas erinnert, kommt es hier rein.

memory/YYYY-MM-DD.md sind Tagesprotokolle. Laufender Kontext, Sitzungsnotizen, Dinge, die der Agent während einer Unterhaltung aufgeschnappt hat. Die verlieren über die Zeit an Gewicht, mit einer Halbwertszeit von 30 Tagen. Eine Notiz von vor sechs Monaten behält nur noch circa 1,6% ihres ursprünglichen Relevanzscores.

Unter der Haube baut OpenClaw einen SQLite-Vektorindex pro Agent. Wenn der Agent etwas abrufen muss, läuft eine Hybridsuche: 70% Vektorähnlichkeit, 30% BM25-Keyword-Matching. Zwei Tools erledigen den Abruf. memory_search macht semantische Suche. memory_get liest eine Datei direkt.

Dieses System funktioniert für die meisten Anwendungsfälle gut. Ein Nutzer hat 15.000 aufgestaute E-Mails abgearbeitet, weil persistente Gedächtnis-Regeln über Sessions hinweg überlebt haben. Ein Entwickler hat einen seit 10 Monaten kaputten SMS-Chatbot repariert, indem er Kontext über mehrere Sessions ansammeln ließ, statt die Codebasis jedes Mal neu zu erklären. Die ClawHosters Quickstart-Anleitung zeigt, wie du das in der Praxis aufsetzt.

Aber dieses KI Agent Gedächtnis hat Fehlermodi, die dich Stunden kosten können. Vielleicht Tage.

Die Stolperfallen, die das OpenClaw Agent Gedächtnis zerstören

Stolperfalle 1: Container-Neustart löscht alles

Das hier ist wahrscheinlich die häufigste. Du betreibst OpenClaw in Docker ohne richtige Volume-Mounts. Der Container startet neu (Update, Crash, Host-Reboot). Alles im Workspace-Verzeichnis ist weg. MEMORY.md, Tagesprotokolle, alles. Die offizielle Docker-Anleitung empfiehlt, OPENCLAW_HOME_VOLUME zu setzen, damit der Workspace als Named Volume persistiert wird. Aber wenn du diesen Schritt beim Setup übergehst, merkst du es erst, wenn es zu spät ist.

Stolperfalle 2: Stille Kompaktierung

Die hier ist schlimmer, weil du sie nicht kommen siehst. Ein dokumentierter Fall auf GitHub (Issue #5429) beschreibt einen Nutzer, der rund 45 Stunden an aufgebautem Agent-Kontext verloren hat. Auto-Kompaktierung löste bei 90%+ Kontextauslastung aus, und alles, was nicht auf die Festplatte geschrieben war, wurde stillschweigend verworfen. Der Agent hatte keine Ahnung, was er verloren hatte.

Der Fix existiert. memoryFlush ist eine Config-Option, die den Agenten dazu bringt, wichtige Fakten in MEMORY.md zu sichern, bevor die Kompaktierung läuft. Das Problem? Standardmäßig deaktiviert. Und der Issue wurde als NOT_PLANNED geschlossen. Dieses Verhalten wird sich also nicht ändern.

Stolperfalle 3: Stiller Embedding-Fehler

Du konfigurierst Memory, redest mit deinem Agenten, fragst ihn nach etwas von letzter Woche. Nichts kommt zurück. Kein Fehler. Nur Stille, oder eine halluzinierte Antwort.

Die Ursache: kein funktionierender Embedding-Provider. OpenClaws memory_search braucht ein Embedding-Modell. Wenn keins konfiguriert ist (oder der API-Key falsch ist), scheitert das Tool stillschweigend. GitHub Issues #13027 und #16670 dokumentieren, dass der Onboarding-Prozess dich davor nicht warnt. Du denkst, Memory funktioniert. Tut es aber nicht.

OpenClaw Memory Plugins: Wenn das eingebaute Gedächtnis nicht reicht

Wie Daily Dose of DS es formuliert, "remembers everything but understands none of it". OpenClaws natives Gedächtnis speichert Textstücke. Es kann nicht über Beziehungen zwischen Fakten nachdenken. Sag dem Agenten am Montag "Alice ist zuständig für das Auth-Team", frag am Mittwoch "wer kümmert sich um Berechtigungen?", und er zuckt mit den Schultern.

Vier Plugins adressieren unterschiedliche Lücken:

Mem0 verschiebt Erinnerungen in einen externen Cloud-Speicher, komplett außerhalb des Kontextfensters. Gut für Persistenz über Geräte und Sessions hinweg.

Supermemory fügt automatischen Abruf vor jedem KI-Turn und automatisches Erfassen nach jedem Austausch hinzu. Das GitHub-Repo zeigt 434 Stars und aktive Entwicklung. Es kümmert sich auch um Deduplizierung, damit deine Memory-Dateien nicht mit redundanten Einträgen aufblähen.

Cognee geht einen anderen Weg. Die Cognee-Integration baut einen Knowledge Graph. "Alice zuständig für Auth" wird zu Entitäten und Beziehungen, die traversiert werden können, statt nur per Textähnlichkeit gefunden.

Voyage AI ist kein Memory-Plugin im engeren Sinn. Es ist ein Embedding-Provider-Upgrade, das die Retrieval-Qualität des nativen Systems verbessert.

Welches du brauchst, hängt von deinem Einsatzbereich ab. Für die meisten Single-Agent-Setups reicht das native KI Agent Gedächtnis mit ordentlicher Konfiguration. Für Multi-Projekt-Arbeit oder Bereiche mit vielen Beziehungen zwischen Fakten füllt Cognee oder Supermemory echte Lücken.

Warum das für Hosting relevant ist

Alle diese Stolperfallen sind Infrastruktur-Probleme. Konfigurationsentscheidungen, die du einmal beim Setup triffst und dann vergisst, bis etwas kaputtgeht.

Wenn du OpenClaw selbst hostest, sind diese Entscheidungen deine Verantwortung. Wenn du Managed Hosting nutzt, sind Workspace-Persistenz, richtige Volume-Konfiguration und Embedding-Provider-Setup von Anfang an erledigt. Das ist kein Verkaufspitch. Das ist einfach der praktische Unterschied zwischen Infrastruktur selber verwalten und jemand anderem die Arbeit überlassen.

So oder so: Check dein Setup. Stell sicher, dass memoryFlush aktiviert ist. Bestätige, dass dein Embedding-Provider funktioniert. Vergewissere dich, dass dein Workspace-Verzeichnis Container-Neustarts überlebt. Das sind vermutlich die drei Dinge mit dem größten Hebel für ein zuverlässiges KI Agent Gedächtnis.

Häufig gestellte Fragen

Das KI Agent Gedächtnis ist das System, das einem KI-Assistenten erlaubt, Informationen über separate Unterhaltungen hinweg zu behalten. LLMs sind zustandslos. Ohne eine externe Memory-Schicht startet jede Session bei null. OpenClaw löst das, indem Fakten in Markdown-Dateien auf die Festplatte geschrieben werden, die in zukünftige Sessions geladen werden.

Nein. Memory wird nur geschrieben, wenn der Agent aktiv einen Schreibvorgang durchführt. Gesprächskontext, der nicht auf Disk gesichert wird, geht verloren, wenn die Session endet oder wenn die Kompaktierung auslöst. Wenn du willst, dass der Agent sich etwas merkt, sag ihm, er soll es in MEMORY.md schreiben.

Setze die Umgebungsvariable `OPENCLAW_HOME_VOLUME`, damit dein Workspace-Verzeichnis als Docker Named Volume persistiert wird. Ohne das ist das Container-Dateisystem kurzlebig. Ein Neustart bedeutet: Der Agent startet komplett ohne Gedächtnis.

`memoryFlush` ist eine Config-Option, die den Agenten anweist, wichtige Fakten in MEMORY.md zu sichern, bevor die Kontextkompaktierung läuft. Standardmäßig deaktiviert. Du solltest es einschalten. Ohne das kann der Agent bei langen Sessions Stunden an aufgebautem Kontext verlieren, ohne jede Warnung.

Nicht von Haus aus. Das eingebaute System nutzt Vektorsuche, um ähnliche Textstellen zu finden, aber es kann nicht über Zusammenhänge zwischen Fakten nachdenken. Wenn du beziehungsbewusstes Retrieval brauchst (etwa wissen, dass eine Person ein bestimmtes Team leitet), schau dir das Cognee-Plugin an, das einen Knowledge Graph über deine Memory-Daten baut.
*Zuletzt aktualisiert: Februar 2026*

Quellen

  1. 1 Leonie Monigatti erklärt
  2. 2 OpenClaws offizieller Dokumentation
  3. 3 15.000 aufgestaute E-Mails
  4. 4 ClawHosters Quickstart-Anleitung
  5. 5 offizielle Docker-Anleitung
  6. 6 dokumentierter Fall auf GitHub (Issue #5429)
  7. 7 #13027
  8. 8 #16670
  9. 9 Daily Dose of DS
  10. 10 GitHub-Repo
  11. 11 Cognee-Integration
  12. 12 OpenClaw selbst hostest
  13. 13 Managed Hosting