Twoja AI, Twoje zasady
Interfejs czatu AI z priorytetem prywatności. Uruchom lokalnie z Ollama lub połącz z OpenAI, Anthropic i 9+ dostawcami. Zero telemetrii. Zero śledzenia.
npx libre-webui Wymaga Node.js 18+ i Ollama dla lokalnej AI
Wszystko, czego potrzebujesz
Kompletne rozwiązanie czatu AI, które szanuje Twoją prywatność
Lokalna i chmurowa AI
Uruchom modele lokalnie z Ollama lub połącz z OpenAI, Anthropic, Groq, Gemini, Mistral i więcej. Twój wybór.
Czat z dokumentami (RAG)
Przesyłaj pliki PDF, dokumenty i pliki tekstowe. Zadawaj pytania o swoje dokumenty za pomocą wyszukiwania semantycznego i osadzeń wektorowych.
Interaktywne artefakty
Renderuj HTML, SVG i komponenty React bezpośrednio w czacie. Podgląd na żywo z trybem pełnoekranowym.
Szyfrowanie AES-256
Szyfrowanie klasy korporacyjnej dla wszystkich Twoich danych. Historia czatu, dokumenty i ustawienia są szyfrowane w spoczynku.
Niestandardowe persony
Twórz osobowości AI z unikalnymi zachowaniami i promptami systemowymi. Importuj/eksportuj persony jako JSON.
Tekst na mowę
Słuchaj odpowiedzi AI z wieloma opcjami głosu. Obsługuje TTS przeglądarki i integrację ElevenLabs.
Skróty klawiszowe
Skróty inspirowane VS Code dla zaawansowanych użytkowników. Nawiguj, przełączaj ustawienia i kontroluj wszystko z klawiatury.
Wsparcie wieloużytkownikowe
Kontrola dostępu oparta na rolach z obsługą SSO. Wbudowane OAuth GitHub i Hugging Face.
Połącz z dowolnym dostawcą
Jeden interfejs, nieograniczone możliwości
Zacznij w kilka sekund
Wybierz preferowaną metodę instalacji
Twórz niestandardowe wtyczki
Połącz dowolny LLM kompatybilny z OpenAI za pomocą prostego pliku JSON
Dostępne wtyczki
Oficjalne wtyczki z repozytorium Libre WebUI. Kliknij, aby zobaczyć lub pobrać.
{
"id": "custom-model",
"name": "Custom Model",
"type": "completion",
"endpoint": "http://localhost:8000/v1/chat/completions",
"auth": {
"header": "Authorization",
"prefix": "Bearer ",
"key_env": "CUSTOM_MODEL_API_KEY"
},
"model_map": [
"my-fine-tuned-llama"
]
} Stwórz własną wtyczkę
Uruchom serwer LLM
Uruchom dowolny serwer kompatybilny z OpenAI: llama.cpp, vLLM, Ollama lub niestandardowy serwer FastAPI.
Utwórz JSON wtyczki
Zdefiniuj endpoint, uwierzytelnianie i dostępne modele w prostym pliku JSON.
Prześlij do Libre WebUI
Przejdź do Ustawienia > Dostawcy, prześlij wtyczkę i wprowadź klucz API.
Zacznij czatować
Twoje niestandardowe modele pojawią się w selektorze modeli. Pełna prywatność, pełna kontrola.
Referencja pól wtyczki
id Unikalny identyfikator (małe litery, dozwolone myślniki) name Nazwa wyświetlana w interfejsie type "completion" dla czatu, "tts" dla tekstu na mowę endpoint URL API (np. /v1/chat/completions) auth.header Nazwa nagłówka auth (Authorization, x-api-key) auth.prefix Prefiks klucza ("Bearer " lub pusty) auth.key_env Zmienna środowiskowa dla klucza API model_map Tablica dostępnych identyfikatorów modeli Gotowy, aby posiadać własną AI?
Dołącz do tysięcy użytkowników, którzy cenią prywatność i kontrolę.