LAUNCH-SUB
LAUNCH-CLAWS
LAUNCH-SUB
LAUNCH-CLAWS
Embedding/RAG-Add-on
Was das Embedding-Add-on macht
Das Embedding-Add-on aktiviert Retrieval-Augmented Generation (RAG) für deine OpenClaw-Instanz. Mit RAG kann deine Instanz hochgeladene Dokumente, Wissensdatenbanken und eigene Daten durchsuchen, um Antworten zu liefern, die auf deinen spezifischen Inhalten basieren — statt sich nur auf das allgemeine Wissen des LLMs zu verlassen.
Ohne dieses Add-on kann deine Instanz nur auf Basis der Trainingsdaten des LLMs antworten.
Wie RAG funktioniert
RAG kombiniert Dokumentensuche mit LLM-Generierung in zwei Schritten:
- Retrieval — Wenn ein Nutzer eine Frage stellt, durchsucht das System deine hochgeladenen Dokumente nach relevanten Passagen mittels Vektorähnlichkeit (Embeddings)
- Generation — Die relevanten Passagen werden als Kontext eingebunden, wenn das LLM seine Antwort generiert, sodass Antworten entstehen, die in deinen tatsächlichen Daten verankert sind
Das bedeutet: Das LLM kann Fragen zu den spezifischen Produkten, Richtlinien, internen Dokumentationen oder anderen Inhalten deines Unternehmens beantworten.
Embedding-Modelle
ClawHosters bietet zwei Embedding-Modelle mit unterschiedlichen Stärken:
| Modell | Am besten für | Geschwindigkeit | Genauigkeit |
|---|---|---|---|
| MiniLM | Allgemeine Suche, schnelle Verarbeitung | Schnell | Gut |
| Qwen3 | Höhere Genauigkeit, mehrsprachige Inhalte | Moderat | Besser |
Du wählst das Embedding-Modell bei der Buchung. Das Modell bestimmt, wie deine Dokumente indexiert und durchsucht werden.
MiniLM
Ein leichtgewichtiges Modell, optimiert für Geschwindigkeit. Funktioniert gut für englischsprachige Inhalte und allgemeine Wissensdatenbanken. Niedrigere Kosten pro verarbeitetem Dokument.
Qwen3
Ein größeres Modell mit stärkerer mehrsprachiger Unterstützung und höherer Suchgenauigkeit. Besser geeignet für technische Dokumentation, mehrsprachige Inhalte oder Fälle, in denen Suchpräzision wichtig ist.
Preise
Die Preise hängen vom Embedding-Modell und der Paketgröße ab:
MiniLM-Preise
| Paket | Monatspreis | Am besten für |
|---|---|---|
| Starter | 2 € | Kleine Wissensdatenbanken, Testen |
| Standard | 6 € | Mittlere Dokumentensammlungen |
| Pro | 20 € | Große Wissensdatenbanken |
Qwen3-Preise
| Paket | Monatspreis | Am besten für |
|---|---|---|
| Starter | 3 € | Kleine mehrsprachige Sammlungen |
| Standard | 10 € | Mittlere Dokumentensets mit hohen Genauigkeitsanforderungen |
| Pro | 35 € | Große Retrieval-Workloads |
Die Nutzung wird anhand der verarbeiteten Dokumente und Abfragen erfasst.
Embedding-Add-on einrichten
- Öffne deine Instanz im ClawHosters-Dashboard
- Gehe zu Add-ons > Embedding
- Wähle ein Embedding-Modell (MiniLM oder Qwen3)
- Wähle eine Paketgröße (Starter, Standard oder Pro)
- Bestätige dein Abonnement
Nach der Buchung kannst du Dokumente über die Wissensdatenbank-Oberfläche deiner Instanz hochladen.
Dokumente hochladen
Sobald das Add-on aktiv ist, lade Dokumente über dein Instanz-Dashboard hoch:
- Unterstützte Formate — PDF, TXT, Markdown, HTML, CSV
- Upload-Limit — Abhängig von deiner Paketgröße
- Verarbeitungszeit — Dokumente werden nach dem Upload automatisch indexiert. MiniLM verarbeitet schneller; Qwen3 braucht etwas länger für höhere Genauigkeit.
Jedes Dokument wird in Abschnitte aufgeteilt, in Vektor-Embeddings umgewandelt und für die Suche gespeichert. Die Aufteilungsstrategie wird automatisch übernommen.
Voraussetzungen
Das Embedding-Add-on erfordert:
- Ein aktives LLM-Abonnement (BYOK oder verwaltetes Paket) — abgerufene Dokumente werden an das LLM zur Antwortgenerierung weitergegeben
- Eine aktive Instanz im Status „Laufend"
Nutzungsübersicht
Die Embedding-Nutzung wird auf der Add-ons-Seite erfasst:
- Indexierte Dokumente — Wie viele Dokumente in deiner Wissensdatenbank gespeichert sind
- Abfragen in diesem Zeitraum — Wie viele RAG-Abfragen verarbeitet wurden
- Genutzter Speicher — Wie viel Vektorspeicher deine Wissensdatenbank belegt
Was passiert, wenn dein Kontingent aufgebraucht ist
Wenn das Abfrage- oder Dokumentenlimit deines Embedding-Pakets erreicht ist:
- Neue Dokument-Uploads werden pausiert
- RAG-Abfragen können gedrosselt werden oder Fehler zurückgeben
- Deine Instanz funktioniert für Nicht-RAG-Gespräche normal weiter
- Limits werden zu Beginn des nächsten Abrechnungszeitraums zurückgesetzt, oder du kannst auf ein größeres Paket wechseln
Das richtige Modell wählen
| Überlegung | MiniLM wählen | Qwen3 wählen |
|---|---|---|
| Budget | Niedrigere Kosten | Höhere Kosten |
| Sprache | Hauptsächlich Englisch | Mehrsprachige Inhalte |
| Geschwindigkeit | Schnellere Indexierung und Abfragen | Etwas langsamer |
| Genauigkeit | Gut für die meisten Anwendungsfälle | Besser für präzisionskritische Suche |
| Dokumentgröße | Beliebig | Beliebig |
Wenn du unsicher bist, starte mit MiniLM. Du kannst das Modell später wechseln, wobei eine Neuindexierung deiner Dokumente erforderlich ist.
Abonnement verwalten
Modell wechseln
Ein Wechsel von MiniLM zu Qwen3 (oder umgekehrt) erfordert eine Neuindexierung aller Dokumente. Der Wechsel wird sofort wirksam und die Dokumente werden im Hintergrund neu verarbeitet.
Paket upgraden oder downgraden
Paket-Upgrades werden sofort wirksam. Downgrades werden zu Beginn des nächsten Abrechnungszeitraums aktiv.
Kündigung
Kündige das Embedding-Add-on über die Add-ons-Seite. Deine Wissensdatenbank und indexierten Dokumente werden 30 Tage lang aufbewahrt. Wenn du innerhalb dieses Zeitraums erneut buchst, werden deine Daten wiederhergestellt. Nach 30 Tagen werden alle indexierten Daten dauerhaft gelöscht.
Fehlerbehebung
RAG-Antworten verweisen nicht auf hochgeladene Dokumente
- Überprüfe, ob das Embedding-Add-on auf der Add-ons-Seite aktiv ist
- Prüfe, ob die Dokumente fertig indexiert sind (Verarbeitungsanzeige auf der Wissensdatenbank-Seite)
- Stelle sicher, dass die Frage des Nutzers relevant für die hochgeladenen Inhalte ist — RAG ruft nur kontextuell ähnliche Passagen ab
- Das LLM-Add-on muss aktiv sein — RAG ohne LLM kann keine Antworten generieren
Dokument-Upload schlägt fehl
- Prüfe, ob das Dateiformat unterstützt wird (PDF, TXT, Markdown, HTML, CSV)
- Überprüfe, ob dein Paket sein Dokumentenlimit noch nicht erreicht hat
- Große Dateien können länger zur Verarbeitung brauchen — warte, bis die Indexierung abgeschlossen ist, bevor du weitere hochlädst
Fehler „Embedding-Add-on nicht verfügbar"
- Das Add-on erfordert eine aktive Instanz im Status „Laufend"
- Instanzen im Fehler-, Gestoppt- oder Pausiert-Status können keine Embeddings verarbeiten
Verwandte Dokumentation
- LLM-Add-on (BYOK vs Managed) — LLM-Konfiguration für RAG-Antworten erforderlich
- Instanzübersicht — Instanz-Status und Lebenszyklus
- Abrechnungsübersicht — Wie die Add-on-Abrechnung funktioniert
Verwandte Dokumentation
LLM-Add-on (BYOK vs Managed)
Wie LLM auf ClawHosters funktioniert Jede OpenClaw-Instanz kann ein großes Sprachmodell (LLM) fü...
Schnellstart-Anleitung
Bevor du loslegst Du brauchst einen ClawHosters-Account. Falls du noch keinen hast, geh auf claw...
Wie das Docs-System funktioniert
Hinter den Kulissen Diese Seite erklärt, wie das OpenClaw-Dokumentationssystem intern funktionie...