Skip to content
Abo -10% SUB-10

Eigenes LLM zu Hause nutzen

8 min Lesezeit Advanced Zuletzt aktualisiert 05. March 2026

Worum es in dieser Anleitung geht

Du kannst ein KI-Modell auf deinem eigenen Computer laufen lassen und es mit deiner ClawHosters-Instanz verbinden. Das bedeutet: Dein AI Agent nutzt deine lokale Hardware zum Denken, statt eines Cloud-Anbieters wie OpenAI oder Anthropic. Das Ergebnis: kostenlose KI-Antworten, keine API-Kosten, volle Privatsphäre.

Der Trick ist ZeroTier. Es baut einen sicheren, verschlüsselten Tunnel zwischen deinem Computer und deiner ClawHosters-Instanz auf. Stell dir das wie ein privates Kabel zwischen den beiden Rechnern vor, auch wenn sie auf verschiedenen Kontinenten stehen. Kein Port-Forwarding, kein Gefummel am Router, nichts wird dem öffentlichen Internet ausgesetzt.

Diese Anleitung führt dich durch den gesamten Prozess von Grund auf. Du brauchst keine Erfahrung mit Servern, Netzwerken oder KI-Modellen. Folge einfach den Schritten.

Was du brauchst

Bevor du loslegst, stelle sicher, dass du diese drei Dinge hast:

  1. Eine ClawHosters-Instanz. Jeder Tarif funktioniert (Budget, Balanced oder Pro). Falls du noch keine hast, erstelle zuerst eine.
  2. Einen Computer, der ein lokales LLM ausführen kann. Mindestens 8 GB RAM werden empfohlen. 16 GB oder mehr sind besser. Ein moderner Laptop oder Desktop aus den letzten Jahren reicht. Mac, Windows oder Linux funktionieren alle.
  3. Eine Internetverbindung. Sowohl dein Computer als auch deine ClawHosters-Instanz müssen online sein.

Das war's. Alles andere in dieser Anleitung ist kostenlos.

Schritt 1: ZeroTier-Konto erstellen

ZeroTier ist ein kostenloser Dienst, der virtuelle private Netzwerke erstellt. Du brauchst ein Konto, um den Tunnel einzurichten.

  1. Gehe zu zerotier.com und klicke auf Sign Up
  2. Erstelle ein kostenloses Konto mit deiner E-Mail
  3. Melde dich bei ZeroTier Central an
  4. Klicke auf Create A Network
  5. Ein neues Netzwerk erscheint mit einer 16-stelligen Netzwerk-ID (z.B. a1b2c3d4e5f60a8b)
  6. Schreib dir diese Netzwerk-ID auf oder kopiere sie. Du brauchst sie in den nächsten Schritten.

Das kostenlose Paket unterstützt bis zu 25 Geräte. Das reicht mehr als genug für die Verbindung zwischen deinem Computer und deiner ClawHosters-Instanz.

Schritt 2: ZeroTier auf deinem Computer installieren

Lade den ZeroTier-Client für dein Betriebssystem herunter und tritt dem Netzwerk bei, das du gerade erstellt hast.

Auf dem Mac:

  1. Lade ZeroTier von zerotier.com/download herunter
  2. Öffne die heruntergeladene Datei und installiere es
  3. ZeroTier erscheint als kleines Symbol in deiner Menüleiste (oben rechts)
  4. Klicke auf das Symbol und wähle Join New Network...
  5. Füge deine 16-stellige Netzwerk-ID ein und klicke auf Join

Auf Windows:

  1. Lade ZeroTier von zerotier.com/download herunter
  2. Führe den Installer aus
  3. ZeroTier erscheint als kleines Symbol in deinem System-Tray (unten rechts)
  4. Rechtsklick auf das Symbol und wähle Join New Network...
  5. Füge deine 16-stellige Netzwerk-ID ein und klicke auf Join

Auf Linux:

  1. Öffne ein Terminal
  2. Installiere ZeroTier: curl -s https://install.zerotier.com | sudo bash
  3. Tritt dem Netzwerk bei: sudo zerotier-cli join DEINE_NETZWERK_ID

Deinen Rechner autorisieren:

Nach dem Beitritt gehe zurück zu ZeroTier Central, öffne dein Netzwerk und scrolle zum Bereich Members. Du siehst deinen Computer in der Liste. Aktiviere die Auth-Checkbox daneben.

Nach der Autorisierung bekommt dein Computer eine ZeroTier-IP-Adresse (z.B. 10.147.x.x). Notiere dir diese IP-Adresse. Du brauchst sie später bei der BYOK-Konfiguration.

Schritt 3: Ein lokales LLM installieren

Jetzt brauchst du Software, die KI-Modelle auf deinem Computer ausführen kann. Es gibt zwei beliebte Optionen.

Option A: Ollama (Empfohlen)

Ollama ist der einfachste Weg, lokale Modelle zu betreiben. Es funktioniert über die Kommandozeile und ist sehr leicht einzurichten.

  1. Gehe zu ollama.com und lade den Installer für dein System herunter
  2. Führe den Installer aus
  3. Öffne ein Terminal (Terminal auf dem Mac, Eingabeaufforderung oder PowerShell auf Windows)
  4. Lade ein Modell herunter. Für den Anfang eignen sich diese: ollama pull llama3.2 Oder wenn du ein kleineres, schnelleres Modell willst: ollama pull mistral

Der Download dauert einige Minuten je nach Internetgeschwindigkeit. Die Modelldateien sind mehrere Gigabyte groß.

Option B: LM Studio

LM Studio bietet dir eine grafische Oberfläche. Gut, wenn du lieber klickst statt Befehle zu tippen.

  1. Gehe zu lmstudio.ai und lade die App herunter
  2. Öffne LM Studio
  3. Nutze die Suchleiste, um ein Modell zu finden (probiere "Llama 3.2" oder "Mistral")
  4. Klicke auf den Download-Button neben dem gewünschten Modell
  5. Warte, bis der Download fertig ist

Schritt 4: Deinen lokalen LLM-Server starten

Dein lokales LLM muss als Server laufen, damit deine ClawHosters-Instanz Anfragen dorthin senden kann.

Wenn du Ollama nutzt:

Öffne ein Terminal und führe aus:

text
OLLAMA_HOST=0.0.0.0 ollama serve

Das 0.0.0.0 ist wichtig. Es sagt Ollama, dass es Verbindungen von anderen Geräten akzeptieren soll (wie deine ClawHosters-Instanz über ZeroTier), nicht nur von deinem eigenen Computer. Ohne diese Einstellung hört Ollama nur auf localhost und deine Instanz kann es nicht erreichen.

Auf Mac und Windows startet Ollama nach der Installation normalerweise automatisch im Hintergrund. Wenn du den Fehler "address already in use" bekommst, beende zuerst die Ollama-App (klicke auf das Ollama-Symbol in der Menüleiste oder im System-Tray und wähle Beenden), dann starte den Befehl oben.

Auf Windows setzt du die Umgebungsvariable zuerst: set OLLAMA_HOST=0.0.0.0 ollama serve

Wenn du LM Studio nutzt:

  1. Öffne LM Studio
  2. Klicke auf den Local Server-Tab in der linken Seitenleiste
  3. Wähle das Modell, das du heruntergeladen hast
  4. Klicke auf Start Server
  5. LM Studio startet einen Server auf Port 1234 (Standardeinstellung)

Überprüfe, ob es lokal funktioniert:

Bevor du deine Instanz verbindest, teste ob der Server antwortet. Öffne ein neues Terminal und führe aus:

Für Ollama: curl http://localhost:11434/v1/models

Für LM Studio: curl http://localhost:1234/v1/models

Wenn du eine JSON-Antwort mit deinem Modell siehst, läuft der Server korrekt.

Schritt 5: Deine ClawHosters-Instanz verbinden

Jetzt verbindest du deine ClawHosters-Instanz mit demselben ZeroTier-Netzwerk.

  1. Gehe zu deinem Instanz-Dashboard auf ClawHosters
  2. Öffne den Access-Tab
  3. Finde den ZeroTier-Bereich
  4. Gib deine 16-stellige Netzwerk-ID ein
  5. Klicke auf Join

Deine Instanz sendet eine Beitrittsanfrage an ZeroTier. Gehe jetzt zu ZeroTier Central, öffne dein Netzwerk und autorisiere das neue Mitglied (deine ClawHosters-Instanz), indem du die Auth-Checkbox aktivierst.

Im ClawHosters-Dashboard klicke auf Aktualisieren, um den Status zu prüfen. Sobald autorisiert, zeigt es Verbunden zusammen mit der ZeroTier-IP-Adresse deiner Instanz an.

Weitere Details zu diesem Schritt findest du in der ZeroTier VPN Dokumentation.

Schritt 6: BYOK konfigurieren

Jetzt sagst du deiner ClawHosters-Instanz, dass sie dein lokales LLM verwenden soll statt eines Cloud-Anbieters.

  1. Gehe zu deinem Instanz-Dashboard auf ClawHosters
  2. Öffne den Addons-Tab
  3. Wechsle in den BYOK-Modus (Bring Your Own Key)
  4. Setze den Endpoint auf deinen lokalen LLM-Server:

Für Ollama: http://DEINE_ZEROTIER_IP:11434/v1

Für LM Studio: http://DEINE_ZEROTIER_IP:1234/v1

Ersetze DEINE_ZEROTIER_IP durch die ZeroTier-IP-Adresse deines Computers (die du dir in Schritt 2 notiert hast, z.B. 10.147.x.x).

  1. Setze den Model-Namen auf das Modell, das du heruntergeladen hast:

    • Für Ollama mit Llama: llama3.2
    • Für Ollama mit Mistral: mistral
    • Für LM Studio: schau den Modellnamen im Local Server-Tab nach
  2. Das Feld API Key kannst du leer lassen (lokale Server brauchen keinen)

  3. Klicke auf Speichern

Der BYOK-Modus selbst ist kostenlos. Es fallen keine zusätzlichen Gebühren für die Nutzung deines eigenen Modells an.

Schritt 7: Testen

Zeit zu schauen, ob alles funktioniert.

  1. Sende eine Nachricht an deinen AI Agent über den Kanal, den du eingerichtet hast (Telegram, WhatsApp, Discord oder Web-Chat)
  2. Warte auf eine Antwort. Lokale Modelle können langsamer sein als Cloud-APIs, besonders auf weniger leistungsstarker Hardware. Gib ihm einen Moment.
  3. Prüfe den Logs-Tab in deinem Instanz-Dashboard, um die Verarbeitung der Anfrage zu sehen

Wenn du eine Antwort bekommst, herzlichen Glückwunsch. Deine ClawHosters-Instanz nutzt jetzt dein eigenes lokales LLM über ZeroTier. Keine Cloud-API-Kosten, volle Privatsphäre, alles läuft auf deiner Hardware.

Fehlerbehebung

Keine Antwort von deinem AI Agent:

  • Prüfe, ob dein lokaler LLM-Server noch läuft (das Terminalfenster sollte Aktivität zeigen)
  • Prüfe den Logs-Tab in deinem ClawHosters-Dashboard auf Fehlermeldungen
  • Stelle sicher, dass dein Computer noch mit dem ZeroTier-Netzwerk verbunden ist

"Connection refused" oder Timeout-Fehler:

  • Wenn du Ollama nutzt, stelle sicher, dass du es mit OLLAMA_HOST=0.0.0.0 gestartet hast. Ohne das lehnt Ollama Verbindungen von anderen Geräten ab.
  • Überprüfe die ZeroTier-IP-Adresse in deiner BYOK-Konfiguration. Es sollte die ZeroTier-IP deines Computers sein, nicht deine normale lokale IP.
  • Stelle sicher, dass sowohl dein Computer als auch deine Instanz in ZeroTier Central als "Connected" angezeigt werden

"Model not found"-Fehler:

  • Überprüfe, ob du das Modell heruntergeladen hast. Führe ollama list aus, um installierte Modelle zu sehen.
  • Prüfe, ob der Modellname in deiner BYOK-Konfiguration exakt übereinstimmt. Zum Beispiel llama3.2, nicht Llama-3.2.

Langsame Antworten:

  • Lokale Modelle hängen von deiner Hardware ab. Wenn Antworten sehr langsam sind, probiere ein kleineres Modell (z.B. mistral statt llama3.2:70b)
  • Schließe andere ressourcenintensive Anwendungen auf deinem Computer
  • Stelle sicher, dass dein Computer nicht im Energiesparmodus läuft

LM Studio Server nicht erreichbar:

  • Gehe in LM Studio zum Local Server-Tab und prüfe, ob "Accept connections from other devices" oder "Serve on 0.0.0.0" aktiviert ist
  • Stelle sicher, dass der Server tatsächlich gestartet ist (grüner Indikator)

ZeroTier zeigt "Pending" oder "Offline":

  • Gehe zu ZeroTier Central und prüfe, ob beide Mitglieder autorisiert sind
  • Versuche auf deinem Computer, das Netzwerk zu verlassen und erneut beizutreten
  • Klicke bei deiner ClawHosters-Instanz auf Trennen und tritt dann erneut bei

Gut zu wissen

ZeroTier ist kostenlos für bis zu 25 Geräte. Du brauchst nur 2 Geräte für dieses Setup (deinen Computer und deine Instanz), also reicht das kostenlose Paket völlig aus.

Der gesamte Datenverkehr ist verschlüsselt. Daten zwischen deinem Computer und deiner ClawHosters-Instanz reisen durch einen verschlüsselten Tunnel. Niemand kann deine KI-Unterhaltungen unterwegs mitlesen.

Dein Computer muss eingeschaltet sein. Da das LLM auf deinem Rechner läuft, muss er eingeschaltet und mit dem Internet verbunden sein. Wenn du deinen Computer herunterfährst oder den Laptop zuklappst, antwortet dein AI Agent nicht mehr, bis du ihn wieder startest.

Keine zusätzlichen Kosten für BYOK. Die Nutzung deines eigenen Modells über BYOK kostet keine Claws. Deine einzigen Kosten sind dein ClawHosters-Instanz-Abonnement.

Du kannst jederzeit zurückwechseln. Wenn du wieder einen Cloud-LLM-Anbieter nutzen möchtest, ändere einfach die BYOK-Einstellungen im Addons-Tab zurück. Deine Instanz funktioniert in beiden Fällen.

Weitere Details zu ZeroTier-Netzwerken (Trennen, Firewall-Details, Peer-to-Peer-Verhalten) findest du in der vollständigen ZeroTier VPN Dokumentation.

Verwandte Dokumentation

Verwandte Dokumentation