Abo -30% SUB30
OpenClaw Memory: So merkt sich dein KI-Agent wirklich etwas
$ ./blog/guides
Anleitungen

OpenClaw Memory: So merkt sich dein KI-Agent wirklich etwas

ClawHosters
ClawHosters von Daniel Samer
5 Min. Lesezeit

Du sagst ChatGPT deinen Namen. Nächste Session? Weg. Du erklärst Claude deine Projektstruktur. Morgen? Leere Tafel. Wie Sara Zan in ihrer Analyse zu LLM Memory erklärt: große Sprachmodelle sind zustandslos. Jeder API-Call startet bei null. Das Modell hat dich nicht vergessen. Es hat dich nie gekannt.

OpenClaw löst das. Und zwar mit einfachen Textdateien.

Wie OpenClaw Memory funktioniert

Die Grundidee ist verblüffend einfach. Laut ByteByteGo's Analyse des LLM-Memory-Problems ist Context teuer und temporär (das Konversationsfenster, für das du Tokens zahlst), Memory dagegen ist dauerhaft und praktisch kostenlos (einfach Dateien auf der Festplatte).

OpenClaw trennt diese beiden Dinge sauber voneinander. Context ist das, was das Modell gerade sieht. Memory ist das, was es bei Bedarf nachschlagen kann. Die offizielle OpenClaw Memory-Dokumentation beschreibt ein System, in dem Memory als Markdown-Dateien vorliegt, indexiert in SQLite mit hybrider BM25- und Vektorsuche. Die Memory-Suche braucht unter 100 ms, selbst bei 10.000 Chunks.

Schnell genug, dass dein Agent mitten im Gespräch sein Gedächtnis abfragen kann, ohne dass du eine Verzögerung merkst.

Die Dateien, die sich erinnern

Drei Dateitypen bilden das Langzeitgedächtnis deines Agenten.

SOUL.md definiert die Identität. Das ist die "Wer bin ich"-Datei, detailliert beschrieben in der SOUL.md Template-Referenz. Persönlichkeit, Kommunikationsstil, grundlegende Instruktionen. Diese Datei wird in jede Konversation geladen, damit dein Agent immer weiß, was er ist und wie er sich verhalten soll. Du schreibst sie einmal und passt sie gelegentlich an.

MEMORY.md speichert kuratiertes Wissen. Dinge, die dein Agent gelernt hat und dauerhaft behalten soll. Deine Tech-Stack-Präferenzen. Deinen Deployment-Workflow. Die Tatsache, dass du Tabs nicht ausstehen kannst und zwei Leerzeichen bevorzugst. Diese Datei wächst mit der Zeit, während der Agent dich kennenlernt.

Tagesprotokolle erfassen den Kontext einzelner Sessions. Woran du gestern gearbeitet hast. Welche Dateien geändert wurden. Welche Entscheidungen gefallen sind. Das sind die laufenden Notizen, damit dein Agent dort weitermachen kann, wo ihr aufgehört habt.

Alles in Markdown. Alles menschenlesbar. Du kannst jede dieser Dateien in einem Texteditor öffnen und genau sehen, was dein Agent "weiß". Keine Blackbox, kein proprietäres Format, keine Datenbank, in die du nicht reinschauen kannst. MeshWorlds Analyse der OpenClaw Memory-Architektur hebt diese Transparenz als Datenschutzvorteil hervor: Du kontrollierst, was dein Agent sich merkt, weil du es buchstäblich lesen und bearbeiten kannst.

Context Management: Das Compaction-Problem

Hier wird es knifflig. Das Kontextfenster deines Agenten füllt sich. So funktionieren Gespräche nun mal. Wenn das Token-Limit erreicht ist, muss OpenClaw entscheiden, was bleibt und was komprimiert wird.

Der memoryFlush-Mechanismus sichert wichtigen Kontext in MEMORY.md, bevor die Compaction greift. Ohne diesen Mechanismus vergisst dein Agent Dinge, die er behalten sollte. Mit ihm werden die wichtigen Informationen auf die Festplatte geschrieben, bevor der Gesprächsverlauf zusammengefasst wird.

Ein tiefer Einblick in das OpenClaw Memory-System zeigt, dass v2026.3.7 eine pluggable ContextEngine mit sieben Lifecycle-Hooks eingeführt hat. Entwickler bekommen damit feinkörnige Kontrolle darüber, was erinnert und was verworfen wird. Aber das ist nicht das Problem, auf das die meisten Leute stoßen.

Das "Memory funktioniert nicht out of the box"-Problem

Wer die GitHub Issues von OpenClaw durchgeht, findet eine wiederkehrende Frustration. Memory funktioniert nicht sofort nach der Installation. Issue #9157 dokumentiert, dass ohne korrekte Konfiguration 93,5 % der Tokens verschwendet werden, weil der Context nicht effizient verwaltet wird.

Vier Dinge müssen richtig konfiguriert sein: MEMORY.md muss existieren und beschreibbar sein, memoryFlush muss aktiviert sein, QMD (Query-Memory-on-Demand) muss eingeschaltet sein, und softThresholdTokens muss auf deine Kontextfenstergröße abgestimmt werden. Wenn auch nur eine dieser Einstellungen fehlt, ist das Memory deines Agenten entweder kaputt oder kaum nutzbar.

Das sind vier Konfigurationen, verteilt über verschiedene Dateien. Meiner Erfahrung nach übersehen die meisten Nutzer mindestens eine davon.

OpenClaw Memory auf ClawHosters

Genau diese Komplexität konfigurieren wir vor. Jede ClawHosters-Instanz wird mit fertig eingerichtetem MEMORY.md, aktiviertem memoryFlush, aktivem QMD und auf die Kontextlimits deines Plans abgestimmten softThresholdTokens ausgeliefert. Der "Vier-Konfig-Fix" aus den GitHub-Diskussionen? Erledigt, bevor deine Instanz live geht.

Kein Editieren von openclaw.json nötig. Wer zusätzlich seine Token-Kosten um 77 % senken will: Memory Management ist Teil der Gleichung. Gutes Memory bedeutet weniger Kontextwiederholung, und das bedeutet weniger verbrannte Tokens.

OpenClaw hat 250.000 GitHub-Stars in rund 60 Tagen erreicht. Das Projekt bewegt sich schnell. Memory und Context Management werden in sechs Monaten wahrscheinlich anders aussehen. Aber jetzt gerade ist es wichtig, dass es richtig funktioniert, und dafür sollte niemand GitHub Issues durchlesen müssen. Ab 19 $/Monat mit vorkonfiguriertem Memory.

Häufig gestellte Fragen

Ja. SOUL.md und MEMORY.md sind dauerhafte Dateien auf der Festplatte. Sie überleben Neustarts, Updates und Session-Resets. Tagesprotokolle ebenfalls. Nur das Konversations-Kontextfenster wird zwischen Sessions zurückgesetzt. Das ist gewollt. Die Memory-Dateien deines Agenten bleiben unangetastet.

Jede Memory-Datei ist Markdown im Klartext. Öffne SOUL.md oder MEMORY.md in einem beliebigen Texteditor und lies nach. Du kannst alles bearbeiten oder löschen. Es gibt keine versteckte Datenbank, keinen verschlüsselten Speicher. Was du siehst, ist exakt das, worauf dein Agent Zugriff hat.

ChatGPT speichert Erinnerungen in einem proprietären System, das du nicht vollständig einsehen oder kontrollieren kannst. OpenClaw speichert alles als lokale Markdown-Dateien mit SQLite-Indexierung. Du besitzt die Dateien, kannst sie sichern und entscheidest, was bleibt und was gelöscht wird. Die Suche nutzt hybrides BM25 plus Vektor-Matching und ist in unter 100 ms abgeschlossen.

Nein. ClawHosters konfiguriert alle vier nötigen Memory-Einstellungen vor: MEMORY.md-Erstellung, memoryFlush, QMD und softThresholdTokens. Dein Agent startet beim ersten Boot mit funktionierendem Memory. Du kannst diese Einstellungen später anpassen, wenn du mehr Kontrolle willst.

Memory-Dateien werden getrennt von der OpenClaw-Anwendung gespeichert. Updates berühren weder SOUL.md noch MEMORY.md oder Tagesprotokolle. Auf ClawHosters werden Updates automatisch eingespielt, ohne das gespeicherte Wissen deines Agenten zu beeinflussen.

Quellen

  1. 1 Sara Zan in ihrer Analyse zu LLM Memory
  2. 2 ByteByteGo's Analyse des LLM-Memory-Problems
  3. 3 offizielle OpenClaw Memory-Dokumentation
  4. 4 SOUL.md Template-Referenz
  5. 5 MeshWorlds Analyse der OpenClaw Memory-Architektur
  6. 6 Ein tiefer Einblick in das OpenClaw Memory-System
  7. 7 Issue #9157 dokumentiert
  8. 8 Token-Kosten um 77 % senken
  9. 9 250.000 GitHub-Stars in rund 60 Tagen
  10. 10 Ab 19 $/Monat