🖥️ Desktop-App kommt bald! Native Apps für macOS, Windows und Linux in Entwicklung Auf GitHub markieren
Open Source & selbst gehostet

Deine KI, deine Regeln

v0.2.3 Was gibt es Neues?
Versionshinweise Alle anzeigen →
Laden...

Datenschutzorientierte KI-Chat-Oberfläche. Lokal mit Ollama ausführen oder mit OpenAI, Anthropic und 9+ Anbietern verbinden. Keine Telemetrie. Kein Tracking.

npx libre-webui

Erfordert Node.js 18+ und Ollama für lokale KI

Libre WebUI Oberfläche
Libre WebUI Oberfläche
🔒 Keine Telemetrie
🏠 Selbst gehostet
📜 Apache 2.0
🔌 Plugin-System

Alles was du brauchst

Eine vollständige KI-Chat-Lösung, die deine Privatsphäre respektiert

🤖

Lokale & Cloud-KI

Modelle lokal mit Ollama ausführen oder mit OpenAI, Anthropic, Groq, Gemini, Mistral und mehr verbinden. Deine Wahl.

📄

Dokument-Chat (RAG)

PDFs, Dokumente und Textdateien hochladen. Stelle Fragen zu deinen Dokumenten mit semantischer Suche und Vektor-Embeddings.

🎨

Interaktive Artefakte

HTML, SVG und React-Komponenten direkt im Chat rendern. Live-Vorschau mit Vollbildmodus.

🔐

AES-256-Verschlüsselung

Verschlüsselung auf Unternehmensniveau für alle deine Daten. Chat-Verlauf, Dokumente und Einstellungen sind verschlüsselt gespeichert.

🎭

Benutzerdefinierte Personas

KI-Persönlichkeiten mit einzigartigen Verhaltensweisen und System-Prompts erstellen. Personas als JSON importieren/exportieren.

🔊

Text-zu-Sprache

KI-Antworten mit mehreren Stimmoptionen anhören. Unterstützt Browser-TTS und ElevenLabs-Integration.

⌨️

Tastaturkürzel

Von VS Code inspirierte Tastenkürzel für Power-User. Navigieren, Einstellungen umschalten und alles über die Tastatur steuern.

👥

Mehrbenutzer-Unterstützung

Rollenbasierte Zugriffskontrolle mit SSO-Unterstützung. GitHub und Hugging Face OAuth integriert.

Mit jedem Anbieter verbinden

Eine Oberfläche, unbegrenzte Möglichkeiten

Ollama
Lokale Modelle
OpenAI
GPT-4o, o1, o3
Anthropic
Claude 4, Opus
Groq
Llama, Mixtral
Google
Gemini Pro
Mistral
Mistral Large
OpenRouter
400+ Modelle
+ Custom
Jede OpenAI-kompatible API

In Sekunden starten

Wähle deine bevorzugte Installationsmethode

Empfohlen

npx (Ein Befehl)

npx libre-webui

Läuft sofort. Keine Installation erforderlich.

npm (Globale Installation)

npm install -g libre-webuilibre-webui

Einmal installieren, überall ausführen.

Docker

docker run -p 8080:8080 libre-webui/libre-webui

Containerisierte Bereitstellung.

Benutzerdefinierte Plugins erstellen

Verbinde jede OpenAI-kompatible LLM mit einer einfachen JSON-Datei

Verfügbare Plugins

Offizielle Plugins aus dem Libre WebUI Repository. Klicken zum Anzeigen oder Herunterladen.

Plugins von GitHub laden...
📄 custom-model.json
{
  "id": "custom-model",
  "name": "Custom Model",
  "type": "completion",
  "endpoint": "http://localhost:8000/v1/chat/completions",
  "auth": {
    "header": "Authorization",
    "prefix": "Bearer ",
    "key_env": "CUSTOM_MODEL_API_KEY"
  },
  "model_map": [
    "my-fine-tuned-llama"
  ]
}

Erstelle dein eigenes Plugin

1

Starte deinen LLM-Server

Führe einen beliebigen OpenAI-kompatiblen Server aus: llama.cpp, vLLM, Ollama oder einen benutzerdefinierten FastAPI-Server.

2

Plugin-JSON erstellen

Definiere deinen Endpunkt, Authentifizierung und verfügbare Modelle in einer einfachen JSON-Datei.

3

Zu Libre WebUI hochladen

Gehe zu Einstellungen > Anbieter, lade dein Plugin hoch und gib deinen API-Schlüssel ein.

4

Starte den Chat

Deine benutzerdefinierten Modelle erscheinen in der Modellauswahl. Volle Privatsphäre, volle Kontrolle.

Plugin-Felder Referenz

id Eindeutiger Bezeichner (Kleinbuchstaben, Bindestriche erlaubt)
name Anzeigename in der Benutzeroberfläche
type "completion" für Chat, "tts" für Text-zu-Sprache
endpoint API-URL (z.B. /v1/chat/completions)
auth.header Auth-Header-Name (Authorization, x-api-key)
auth.prefix Schlüssel-Präfix ("Bearer " oder leer)
auth.key_env Umgebungsvariable für deinen API-Schlüssel
model_map Array verfügbarer Modell-Bezeichner

Bereit, deine KI zu besitzen?

Schließe dich Tausenden von Nutzern an, die Privatsphäre und Kontrolle schätzen.