🖥️ Skrivbordsapp kommer snart! Nativa appar för macOS, Windows och Linux under utveckling Stjärnmärk på GitHub
Öppen källkod & självhostat

Din AI, dina regler

v0.2.3 Vad är nytt?
Versionsnoteringar Visa alla →
Laddar...

Integritetsfokuserat AI-chattgränssnitt. Kör lokalt med Ollama eller anslut till OpenAI, Anthropic och 9+ leverantörer. Ingen telemetri. Ingen spårning.

npx libre-webui

Kräver Node.js 18+ och Ollama för lokal AI

Libre WebUI-gränssnitt
Libre WebUI-gränssnitt
🔒 Ingen telemetri
🏠 Självhostat
📜 Apache 2.0
🔌 Pluginsystem

Allt du behöver

En komplett AI-chattlösning som respekterar din integritet

🤖

Lokal & moln-AI

Kör modeller lokalt med Ollama eller anslut till OpenAI, Anthropic, Groq, Gemini, Mistral och mer. Ditt val.

📄

Dokumentchatt (RAG)

Ladda upp PDF:er, dokument och textfiler. Ställ frågor om dina dokument med semantisk sökning och vektorinbäddningar.

🎨

Interaktiva artefakter

Rendera HTML, SVG och React-komponenter direkt i chatten. Liveförhandsvisning med helskärmsläge.

🔐

AES-256-kryptering

Kryptering på företagsnivå för all din data. Chatthistorik, dokument och inställningar är krypterade i vila.

🎭

Anpassade personas

Skapa AI-personligheter med unika beteenden och systemprompts. Importera/exportera personas som JSON.

🔊

Text-till-tal

Lyssna på AI-svar med flera röstval. Stöder webbläsar-TTS och ElevenLabs-integration.

⌨️

Tangentbordsgenvägar

VS Code-inspirerade genvägar för avancerade användare. Navigera, växla inställningar och styr allt från tangentbordet.

👥

Fleranvändarstöd

Rollbaserad åtkomstkontroll med SSO-stöd. GitHub och Hugging Face OAuth inbyggt.

Anslut till vilken leverantör som helst

Ett gränssnitt, obegränsade möjligheter

Ollama
Lokala modeller
OpenAI
GPT-4o, o1, o3
Anthropic
Claude 4, Opus
Groq
Llama, Mixtral
Google
Gemini Pro
Mistral
Mistral Large
OpenRouter
400+ modeller
+ Custom
Alla OpenAI-kompatibla API:er

Kom igång på sekunder

Välj din föredragna installationsmetod

Rekommenderat

npx (ett kommando)

npx libre-webui

Körs direkt. Ingen installation krävs.

npm (global installation)

npm install -g libre-webuilibre-webui

Installera en gång, kör var som helst.

Docker

docker run -p 8080:8080 libre-webui/libre-webui

Containeriserad distribution.

Skapa anpassade plugins

Anslut vilken OpenAI-kompatibel LLM som helst med en enkel JSON-fil

Tillgängliga plugins

Officiella plugins från Libre WebUI-repositoriet. Klicka för att visa eller ladda ner.

Laddar plugins från GitHub...
📄 custom-model.json
{
  "id": "custom-model",
  "name": "Custom Model",
  "type": "completion",
  "endpoint": "http://localhost:8000/v1/chat/completions",
  "auth": {
    "header": "Authorization",
    "prefix": "Bearer ",
    "key_env": "CUSTOM_MODEL_API_KEY"
  },
  "model_map": [
    "my-fine-tuned-llama"
  ]
}

Skapa din egen plugin

1

Starta din LLM-server

Kör vilken OpenAI-kompatibel server som helst: llama.cpp, vLLM, Ollama eller en anpassad FastAPI-server.

2

Skapa plugin-JSON

Definiera din endpoint, autentisering och tillgängliga modeller i en enkel JSON-fil.

3

Ladda upp till Libre WebUI

Gå till Inställningar > Leverantörer, ladda upp din plugin och ange din API-nyckel.

4

Börja chatta

Dina anpassade modeller visas i modellväljaren. Full integritet, full kontroll.

Referens för pluginfält

id Unik identifierare (gemener, bindestreck tillåtna)
name Visningsnamn i användargränssnittet
type "completion" för chatt, "tts" för text-till-tal
endpoint API-URL (t.ex. /v1/chat/completions)
auth.header Autentiseringshuvudnamn (Authorization, x-api-key)
auth.prefix Nyckelprefix ("Bearer " eller tomt)
auth.key_env Miljövariabel för din API-nyckel
model_map Array med tillgängliga modellidentifierare

Redo att äga din AI?

Gå med tusentals användare som värdesätter integritet och kontroll.