Deine KI, deine Regeln
Datenschutzorientierte KI-Chat-Oberfläche. Lokal mit Ollama ausführen oder mit OpenAI, Anthropic und 9+ Anbietern verbinden. Keine Telemetrie. Kein Tracking.
npx libre-webui Erfordert Node.js 18+ und Ollama für lokale KI
Alles was du brauchst
Eine vollständige KI-Chat-Lösung, die deine Privatsphäre respektiert
Lokale & Cloud-KI
Modelle lokal mit Ollama ausführen oder mit OpenAI, Anthropic, Groq, Gemini, Mistral und mehr verbinden. Deine Wahl.
Dokument-Chat (RAG)
PDFs, Dokumente und Textdateien hochladen. Stelle Fragen zu deinen Dokumenten mit semantischer Suche und Vektor-Embeddings.
Interaktive Artefakte
HTML, SVG und React-Komponenten direkt im Chat rendern. Live-Vorschau mit Vollbildmodus.
AES-256-Verschlüsselung
Verschlüsselung auf Unternehmensniveau für alle deine Daten. Chat-Verlauf, Dokumente und Einstellungen sind verschlüsselt gespeichert.
Benutzerdefinierte Personas
KI-Persönlichkeiten mit einzigartigen Verhaltensweisen und System-Prompts erstellen. Personas als JSON importieren/exportieren.
Text-zu-Sprache
KI-Antworten mit mehreren Stimmoptionen anhören. Unterstützt Browser-TTS und ElevenLabs-Integration.
Tastaturkürzel
Von VS Code inspirierte Tastenkürzel für Power-User. Navigieren, Einstellungen umschalten und alles über die Tastatur steuern.
Mehrbenutzer-Unterstützung
Rollenbasierte Zugriffskontrolle mit SSO-Unterstützung. GitHub und Hugging Face OAuth integriert.
Mit jedem Anbieter verbinden
Eine Oberfläche, unbegrenzte Möglichkeiten
In Sekunden starten
Wähle deine bevorzugte Installationsmethode
Benutzerdefinierte Plugins erstellen
Verbinde jede OpenAI-kompatible LLM mit einer einfachen JSON-Datei
Verfügbare Plugins
Offizielle Plugins aus dem Libre WebUI Repository. Klicken zum Anzeigen oder Herunterladen.
{
"id": "custom-model",
"name": "Custom Model",
"type": "completion",
"endpoint": "http://localhost:8000/v1/chat/completions",
"auth": {
"header": "Authorization",
"prefix": "Bearer ",
"key_env": "CUSTOM_MODEL_API_KEY"
},
"model_map": [
"my-fine-tuned-llama"
]
} Erstelle dein eigenes Plugin
Starte deinen LLM-Server
Führe einen beliebigen OpenAI-kompatiblen Server aus: llama.cpp, vLLM, Ollama oder einen benutzerdefinierten FastAPI-Server.
Plugin-JSON erstellen
Definiere deinen Endpunkt, Authentifizierung und verfügbare Modelle in einer einfachen JSON-Datei.
Zu Libre WebUI hochladen
Gehe zu Einstellungen > Anbieter, lade dein Plugin hoch und gib deinen API-Schlüssel ein.
Starte den Chat
Deine benutzerdefinierten Modelle erscheinen in der Modellauswahl. Volle Privatsphäre, volle Kontrolle.
Plugin-Felder Referenz
id Eindeutiger Bezeichner (Kleinbuchstaben, Bindestriche erlaubt) name Anzeigename in der Benutzeroberfläche type "completion" für Chat, "tts" für Text-zu-Sprache endpoint API-URL (z.B. /v1/chat/completions) auth.header Auth-Header-Name (Authorization, x-api-key) auth.prefix Schlüssel-Präfix ("Bearer " oder leer) auth.key_env Umgebungsvariable für deinen API-Schlüssel model_map Array verfügbarer Modell-Bezeichner Bereit, deine KI zu besitzen?
Schließe dich Tausenden von Nutzern an, die Privatsphäre und Kontrolle schätzen.