Skip to content
Abo -25% LAUNCH-SUB
Claws -25% LAUNCH-CLAWS

Embedding/RAG-Add-on

5 min Lesezeit Addons Zuletzt aktualisiert 10. February 2026

Was das Embedding-Add-on macht

Das Embedding-Add-on aktiviert Retrieval-Augmented Generation (RAG) für deine OpenClaw-Instanz. Mit RAG kann deine Instanz hochgeladene Dokumente, Wissensdatenbanken und eigene Daten durchsuchen, um Antworten zu liefern, die auf deinen spezifischen Inhalten basieren — statt sich nur auf das allgemeine Wissen des LLMs zu verlassen.

Ohne dieses Add-on kann deine Instanz nur auf Basis der Trainingsdaten des LLMs antworten.

Wie RAG funktioniert

RAG kombiniert Dokumentensuche mit LLM-Generierung in zwei Schritten:

  1. Retrieval — Wenn ein Nutzer eine Frage stellt, durchsucht das System deine hochgeladenen Dokumente nach relevanten Passagen mittels Vektorähnlichkeit (Embeddings)
  2. Generation — Die relevanten Passagen werden als Kontext eingebunden, wenn das LLM seine Antwort generiert, sodass Antworten entstehen, die in deinen tatsächlichen Daten verankert sind

Das bedeutet: Das LLM kann Fragen zu den spezifischen Produkten, Richtlinien, internen Dokumentationen oder anderen Inhalten deines Unternehmens beantworten.

Embedding-Modelle

ClawHosters bietet zwei Embedding-Modelle mit unterschiedlichen Stärken:

Modell Am besten für Geschwindigkeit Genauigkeit
MiniLM Allgemeine Suche, schnelle Verarbeitung Schnell Gut
Qwen3 Höhere Genauigkeit, mehrsprachige Inhalte Moderat Besser

Du wählst das Embedding-Modell bei der Buchung. Das Modell bestimmt, wie deine Dokumente indexiert und durchsucht werden.

MiniLM

Ein leichtgewichtiges Modell, optimiert für Geschwindigkeit. Funktioniert gut für englischsprachige Inhalte und allgemeine Wissensdatenbanken. Niedrigere Kosten pro verarbeitetem Dokument.

Qwen3

Ein größeres Modell mit stärkerer mehrsprachiger Unterstützung und höherer Suchgenauigkeit. Besser geeignet für technische Dokumentation, mehrsprachige Inhalte oder Fälle, in denen Suchpräzision wichtig ist.

Preise

Die Preise hängen vom Embedding-Modell und der Paketgröße ab:

MiniLM-Preise

Paket Monatspreis Am besten für
Starter 2 € Kleine Wissensdatenbanken, Testen
Standard 6 € Mittlere Dokumentensammlungen
Pro 20 € Große Wissensdatenbanken

Qwen3-Preise

Paket Monatspreis Am besten für
Starter 3 € Kleine mehrsprachige Sammlungen
Standard 10 € Mittlere Dokumentensets mit hohen Genauigkeitsanforderungen
Pro 35 € Große Retrieval-Workloads

Die Nutzung wird anhand der verarbeiteten Dokumente und Abfragen erfasst.

Embedding-Add-on einrichten

  1. Öffne deine Instanz im ClawHosters-Dashboard
  2. Gehe zu Add-ons > Embedding
  3. Wähle ein Embedding-Modell (MiniLM oder Qwen3)
  4. Wähle eine Paketgröße (Starter, Standard oder Pro)
  5. Bestätige dein Abonnement

Nach der Buchung kannst du Dokumente über die Wissensdatenbank-Oberfläche deiner Instanz hochladen.

Dokumente hochladen

Sobald das Add-on aktiv ist, lade Dokumente über dein Instanz-Dashboard hoch:

  • Unterstützte Formate — PDF, TXT, Markdown, HTML, CSV
  • Upload-Limit — Abhängig von deiner Paketgröße
  • Verarbeitungszeit — Dokumente werden nach dem Upload automatisch indexiert. MiniLM verarbeitet schneller; Qwen3 braucht etwas länger für höhere Genauigkeit.

Jedes Dokument wird in Abschnitte aufgeteilt, in Vektor-Embeddings umgewandelt und für die Suche gespeichert. Die Aufteilungsstrategie wird automatisch übernommen.

Voraussetzungen

Das Embedding-Add-on erfordert:

  • Ein aktives LLM-Abonnement (BYOK oder verwaltetes Paket) — abgerufene Dokumente werden an das LLM zur Antwortgenerierung weitergegeben
  • Eine aktive Instanz im Status „Laufend"

Nutzungsübersicht

Die Embedding-Nutzung wird auf der Add-ons-Seite erfasst:

  • Indexierte Dokumente — Wie viele Dokumente in deiner Wissensdatenbank gespeichert sind
  • Abfragen in diesem Zeitraum — Wie viele RAG-Abfragen verarbeitet wurden
  • Genutzter Speicher — Wie viel Vektorspeicher deine Wissensdatenbank belegt

Was passiert, wenn dein Kontingent aufgebraucht ist

Wenn das Abfrage- oder Dokumentenlimit deines Embedding-Pakets erreicht ist:

  • Neue Dokument-Uploads werden pausiert
  • RAG-Abfragen können gedrosselt werden oder Fehler zurückgeben
  • Deine Instanz funktioniert für Nicht-RAG-Gespräche normal weiter
  • Limits werden zu Beginn des nächsten Abrechnungszeitraums zurückgesetzt, oder du kannst auf ein größeres Paket wechseln

Das richtige Modell wählen

Überlegung MiniLM wählen Qwen3 wählen
Budget Niedrigere Kosten Höhere Kosten
Sprache Hauptsächlich Englisch Mehrsprachige Inhalte
Geschwindigkeit Schnellere Indexierung und Abfragen Etwas langsamer
Genauigkeit Gut für die meisten Anwendungsfälle Besser für präzisionskritische Suche
Dokumentgröße Beliebig Beliebig

Wenn du unsicher bist, starte mit MiniLM. Du kannst das Modell später wechseln, wobei eine Neuindexierung deiner Dokumente erforderlich ist.

Abonnement verwalten

Modell wechseln

Ein Wechsel von MiniLM zu Qwen3 (oder umgekehrt) erfordert eine Neuindexierung aller Dokumente. Der Wechsel wird sofort wirksam und die Dokumente werden im Hintergrund neu verarbeitet.

Paket upgraden oder downgraden

Paket-Upgrades werden sofort wirksam. Downgrades werden zu Beginn des nächsten Abrechnungszeitraums aktiv.

Kündigung

Kündige das Embedding-Add-on über die Add-ons-Seite. Deine Wissensdatenbank und indexierten Dokumente werden 30 Tage lang aufbewahrt. Wenn du innerhalb dieses Zeitraums erneut buchst, werden deine Daten wiederhergestellt. Nach 30 Tagen werden alle indexierten Daten dauerhaft gelöscht.

Fehlerbehebung

RAG-Antworten verweisen nicht auf hochgeladene Dokumente

  • Überprüfe, ob das Embedding-Add-on auf der Add-ons-Seite aktiv ist
  • Prüfe, ob die Dokumente fertig indexiert sind (Verarbeitungsanzeige auf der Wissensdatenbank-Seite)
  • Stelle sicher, dass die Frage des Nutzers relevant für die hochgeladenen Inhalte ist — RAG ruft nur kontextuell ähnliche Passagen ab
  • Das LLM-Add-on muss aktiv sein — RAG ohne LLM kann keine Antworten generieren

Dokument-Upload schlägt fehl

  • Prüfe, ob das Dateiformat unterstützt wird (PDF, TXT, Markdown, HTML, CSV)
  • Überprüfe, ob dein Paket sein Dokumentenlimit noch nicht erreicht hat
  • Große Dateien können länger zur Verarbeitung brauchen — warte, bis die Indexierung abgeschlossen ist, bevor du weitere hochlädst

Fehler „Embedding-Add-on nicht verfügbar"

  • Das Add-on erfordert eine aktive Instanz im Status „Laufend"
  • Instanzen im Fehler-, Gestoppt- oder Pausiert-Status können keine Embeddings verarbeiten

Verwandte Dokumentation

Verwandte Dokumentation