🖥️ Desktop app kommer snart! Native apps til macOS, Windows og Linux under udvikling Star på GitHub
Open Source & Selvhostet

Din AI, dine regler

v0.2.3 Hvad er nyt?
Udgivelsesnoter Se alle →
Indlæser...

Privatlivsfokuseret AI chat interface. Kør lokalt med Ollama eller forbind til OpenAI, Anthropic og 9+ udbydere. Nul telemetri. Nul sporing.

npx libre-webui

Kræver Node.js 18+ og Ollama til lokal AI

Libre WebUI Interface
Libre WebUI Interface
🔒 Nul telemetri
🏠 Selvhostet
📜 Apache 2.0
🔌 Plugin system

Alt hvad du behøver

En komplet AI chat løsning der respekterer dit privatliv

🤖

Lokal & Cloud AI

Kør modeller lokalt med Ollama eller forbind til OpenAI, Anthropic, Groq, Gemini, Mistral og mere. Dit valg.

📄

Dokumentchat (RAG)

Upload PDF'er, dokumenter og tekstfiler. Stil spørgsmål om dine dokumenter med semantisk søgning og vektor embeddings.

🎨

Interaktive Artefakter

Render HTML, SVG og React komponenter direkte i chatten. Live forhåndsvisning med fuldskærmstilstand.

🔐

AES-256 Kryptering

Enterprise-grade kryptering for alle dine data. Chathistorik, dokumenter og indstillinger krypteres i hvile.

🎭

Tilpassede Personas

Opret AI personligheder med unikke adfærd og system prompts. Import/eksport personas som JSON.

🔊

Tekst-til-Tale

Lyt til AI svar med flere stemmemuligheder. Understøtter browser TTS og ElevenLabs integration.

⌨️

Tastaturgenveje

VS Code-inspirerede genveje for avancerede brugere. Naviger, skift indstillinger og kontroller alt fra tastaturet.

👥

Multi-bruger Support

Rollebaseret adgangskontrol med SSO support. GitHub og Hugging Face OAuth indbygget.

Forbind til enhver udbyder

Én interface, ubegrænsede muligheder

Ollama
Lokale modeller
OpenAI
GPT-4o, o1, o3
Anthropic
Claude 4, Opus
Groq
Llama, Mixtral
Google
Gemini Pro
Mistral
Mistral Large
OpenRouter
400+ modeller
+ Custom
Enhver OpenAI-kompatibel API

Kom i gang på sekunder

Vælg din foretrukne installationsmetode

Anbefalet

npx (Én kommando)

npx libre-webui

Kører øjeblikkeligt. Ingen installation påkrævet.

npm (Global installation)

npm install -g libre-webuilibre-webui

Installer én gang, kør hvor som helst.

Docker

docker run -p 8080:8080 libre-webui/libre-webui

Containeriseret deployment.

Opret tilpassede plugins

Forbind enhver OpenAI-kompatibel LLM med en simpel JSON fil

Tilgængelige Plugins

Officielle plugins fra Libre WebUI repository. Klik for at se eller downloade.

Indlæser plugins fra GitHub...
📄 custom-model.json
{
  "id": "custom-model",
  "name": "Custom Model",
  "type": "completion",
  "endpoint": "http://localhost:8000/v1/chat/completions",
  "auth": {
    "header": "Authorization",
    "prefix": "Bearer ",
    "key_env": "CUSTOM_MODEL_API_KEY"
  },
  "model_map": [
    "my-fine-tuned-llama"
  ]
}

Opret dit eget plugin

1

Start din LLM Server

Kør enhver OpenAI-kompatibel server: llama.cpp, vLLM, Ollama eller en tilpasset FastAPI server.

2

Opret Plugin JSON

Definer dit endpoint, autentificering og tilgængelige modeller i en simpel JSON fil.

3

Upload til Libre WebUI

Gå til Indstillinger > Udbydere, upload dit plugin og indtast din API nøgle.

4

Begynd at chatte

Dine tilpassede modeller vises i modelvælgeren. Fuldt privatliv, fuld kontrol.

Plugin Felt Reference

id Unik identifikator (små bogstaver, bindestreger tilladt)
name Visningsnavn i UI
type "completion" for chat, "tts" for tekst-til-tale
endpoint API URL (f.eks. /v1/chat/completions)
auth.header Auth header navn (Authorization, x-api-key)
auth.prefix Nøgle præfiks ("Bearer " eller tom)
auth.key_env Miljøvariabel for din API nøgle
model_map Array af tilgængelige model identifikatorer

Klar til at eje din AI?

Slut dig til tusindvis af brugere der værdsætter privatliv og kontrol.