🖥️ Aplikacja desktopowa wkrótce! Natywne aplikacje na macOS, Windows i Linux w przygotowaniu Dodaj gwiazdkę na GitHub
Open Source i samodzielnie hostowany

Twoja AI, Twoje zasady

v0.2.3 Co nowego?
Informacje o wydaniu Zobacz wszystko →
Ładowanie...

Interfejs czatu AI z priorytetem prywatności. Uruchom lokalnie z Ollama lub połącz z OpenAI, Anthropic i 9+ dostawcami. Zero telemetrii. Zero śledzenia.

npx libre-webui

Wymaga Node.js 18+ i Ollama dla lokalnej AI

Interfejs Libre WebUI
Interfejs Libre WebUI
🔒 Zero telemetrii
🏠 Samodzielnie hostowany
📜 Apache 2.0
🔌 System wtyczek

Wszystko, czego potrzebujesz

Kompletne rozwiązanie czatu AI, które szanuje Twoją prywatność

🤖

Lokalna i chmurowa AI

Uruchom modele lokalnie z Ollama lub połącz z OpenAI, Anthropic, Groq, Gemini, Mistral i więcej. Twój wybór.

📄

Czat z dokumentami (RAG)

Przesyłaj pliki PDF, dokumenty i pliki tekstowe. Zadawaj pytania o swoje dokumenty za pomocą wyszukiwania semantycznego i osadzeń wektorowych.

🎨

Interaktywne artefakty

Renderuj HTML, SVG i komponenty React bezpośrednio w czacie. Podgląd na żywo z trybem pełnoekranowym.

🔐

Szyfrowanie AES-256

Szyfrowanie klasy korporacyjnej dla wszystkich Twoich danych. Historia czatu, dokumenty i ustawienia są szyfrowane w spoczynku.

🎭

Niestandardowe persony

Twórz osobowości AI z unikalnymi zachowaniami i promptami systemowymi. Importuj/eksportuj persony jako JSON.

🔊

Tekst na mowę

Słuchaj odpowiedzi AI z wieloma opcjami głosu. Obsługuje TTS przeglądarki i integrację ElevenLabs.

⌨️

Skróty klawiszowe

Skróty inspirowane VS Code dla zaawansowanych użytkowników. Nawiguj, przełączaj ustawienia i kontroluj wszystko z klawiatury.

👥

Wsparcie wieloużytkownikowe

Kontrola dostępu oparta na rolach z obsługą SSO. Wbudowane OAuth GitHub i Hugging Face.

Połącz z dowolnym dostawcą

Jeden interfejs, nieograniczone możliwości

Ollama
Modele lokalne
OpenAI
GPT-4o, o1, o3
Anthropic
Claude 4, Opus
Groq
Llama, Mixtral
Google
Gemini Pro
Mistral
Mistral Large
OpenRouter
400+ modeli
+ Custom
Każde API kompatybilne z OpenAI

Zacznij w kilka sekund

Wybierz preferowaną metodę instalacji

Zalecane

npx (jedno polecenie)

npx libre-webui

Uruchamia się natychmiast. Bez instalacji.

npm (instalacja globalna)

npm install -g libre-webuilibre-webui

Zainstaluj raz, uruchamiaj wszędzie.

Docker

docker run -p 8080:8080 libre-webui/libre-webui

Wdrożenie w kontenerze.

Twórz niestandardowe wtyczki

Połącz dowolny LLM kompatybilny z OpenAI za pomocą prostego pliku JSON

Dostępne wtyczki

Oficjalne wtyczki z repozytorium Libre WebUI. Kliknij, aby zobaczyć lub pobrać.

Ładowanie wtyczek z GitHub...
📄 custom-model.json
{
  "id": "custom-model",
  "name": "Custom Model",
  "type": "completion",
  "endpoint": "http://localhost:8000/v1/chat/completions",
  "auth": {
    "header": "Authorization",
    "prefix": "Bearer ",
    "key_env": "CUSTOM_MODEL_API_KEY"
  },
  "model_map": [
    "my-fine-tuned-llama"
  ]
}

Stwórz własną wtyczkę

1

Uruchom serwer LLM

Uruchom dowolny serwer kompatybilny z OpenAI: llama.cpp, vLLM, Ollama lub niestandardowy serwer FastAPI.

2

Utwórz JSON wtyczki

Zdefiniuj endpoint, uwierzytelnianie i dostępne modele w prostym pliku JSON.

3

Prześlij do Libre WebUI

Przejdź do Ustawienia > Dostawcy, prześlij wtyczkę i wprowadź klucz API.

4

Zacznij czatować

Twoje niestandardowe modele pojawią się w selektorze modeli. Pełna prywatność, pełna kontrola.

Referencja pól wtyczki

id Unikalny identyfikator (małe litery, dozwolone myślniki)
name Nazwa wyświetlana w interfejsie
type "completion" dla czatu, "tts" dla tekstu na mowę
endpoint URL API (np. /v1/chat/completions)
auth.header Nazwa nagłówka auth (Authorization, x-api-key)
auth.prefix Prefiks klucza ("Bearer " lub pusty)
auth.key_env Zmienna środowiskowa dla klucza API
model_map Tablica dostępnych identyfikatorów modeli

Gotowy, aby posiadać własną AI?

Dołącz do tysięcy użytkowników, którzy cenią prywatność i kontrolę.