🖥️ Desktop app komt eraan! Native apps voor macOS, Windows en Linux in ontwikkeling Ster op GitHub
Open Source & Zelf Gehost

Jouw AI, jouw regels

v0.2.3 Wat is nieuw?
Release Notes Bekijk alles →
Laden...

Privacy-eerst AI chat interface. Draai lokaal met Ollama of verbind met OpenAI, Anthropic en 9+ providers. Geen telemetrie. Geen tracking.

npx libre-webui

Vereist Node.js 18+ en Ollama voor lokale AI

Libre WebUI Interface
Libre WebUI Interface
🔒 Geen Telemetrie
🏠 Zelf Gehost
📜 Apache 2.0
🔌 Plugin Systeem

Alles wat je nodig hebt

Een complete AI chat oplossing die je privacy respecteert

🤖

Lokale & Cloud AI

Draai modellen lokaal met Ollama of verbind met OpenAI, Anthropic, Groq, Gemini, Mistral en meer. Jouw keuze.

📄

Document Chat (RAG)

Upload PDFs, documenten en tekstbestanden. Stel vragen over je documenten met semantisch zoeken en vector embeddings.

🎨

Interactieve Artefacten

Render HTML, SVG en React componenten direct in de chat. Live preview met volledig scherm modus.

🔐

AES-256 Encryptie

Enterprise-grade encryptie voor al je data. Chatgeschiedenis, documenten en instellingen zijn versleuteld opgeslagen.

🎭

Aangepaste Personas

Maak AI persoonlijkheden met unieke gedragingen en systeemprompts. Importeer/exporteer personas als JSON.

🔊

Tekst-naar-Spraak

Luister naar AI antwoorden met meerdere stemopties. Ondersteunt browser TTS en ElevenLabs integratie.

⌨️

Sneltoetsen

VS Code-geïnspireerde sneltoetsen voor power users. Navigeer, schakel instellingen en bedien alles vanaf het toetsenbord.

👥

Multi-User Ondersteuning

Rolgebaseerde toegangscontrole met SSO ondersteuning. GitHub en Hugging Face OAuth ingebouwd.

Verbind met elke provider

Eén interface, onbeperkte mogelijkheden

Ollama
Lokale modellen
OpenAI
GPT-4o, o1, o3
Anthropic
Claude 4, Opus
Groq
Llama, Mixtral
Google
Gemini Pro
Mistral
Mistral Large
OpenRouter
400+ modellen
+ Custom
Elke OpenAI-compatibele API

Begin in seconden

Kies je favoriete installatiemethode

Aanbevolen

npx (Eén commando)

npx libre-webui

Draait direct. Geen installatie nodig.

npm (Globale installatie)

npm install -g libre-webuilibre-webui

Eenmaal installeren, overal draaien.

Docker

docker run -p 8080:8080 libre-webui/libre-webui

Gecontaineriseerde deployment.

Maak aangepaste plugins

Verbind elke OpenAI-compatibele LLM met een simpel JSON bestand

Beschikbare Plugins

Officiële plugins van de Libre WebUI repository. Klik om te bekijken of downloaden.

Plugins laden van GitHub...
📄 custom-model.json
{
  "id": "custom-model",
  "name": "Custom Model",
  "type": "completion",
  "endpoint": "http://localhost:8000/v1/chat/completions",
  "auth": {
    "header": "Authorization",
    "prefix": "Bearer ",
    "key_env": "CUSTOM_MODEL_API_KEY"
  },
  "model_map": [
    "my-fine-tuned-llama"
  ]
}

Maak je eigen plugin

1

Start je LLM server

Draai een OpenAI-compatibele server: llama.cpp, vLLM, Ollama of een aangepaste FastAPI server.

2

Maak Plugin JSON

Definieer je endpoint, authenticatie en beschikbare modellen in een simpel JSON bestand.

3

Upload naar Libre WebUI

Ga naar Instellingen > Providers, upload je plugin en voer je API sleutel in.

4

Begin met chatten

Je aangepaste modellen verschijnen in de modelselector. Volledige privacy, volledige controle.

Plugin Velden Referentie

id Unieke identifier (kleine letters, koppeltekens toegestaan)
name Weergavenaam in de UI
type "completion" voor chat, "tts" voor tekst-naar-spraak
endpoint API URL (bijv. /v1/chat/completions)
auth.header Auth header naam (Authorization, x-api-key)
auth.prefix Sleutel prefix ("Bearer " of leeg)
auth.key_env Omgevingsvariabele voor je API sleutel
model_map Array van beschikbare model identifiers

Klaar om je AI te bezitten?

Sluit je aan bij duizenden gebruikers die privacy en controle waarderen.