Sua IA, suas regras
Interface de chat IA com foco em privacidade. Execute localmente com Ollama ou conecte-se a OpenAI, Anthropic e mais de 9 provedores. Zero telemetria. Zero rastreamento.
npx libre-webui Requer Node.js 18+ e Ollama para IA local
Tudo o que você precisa
Uma solução completa de chat IA que respeita sua privacidade
IA Local e na Nuvem
Execute modelos localmente com Ollama ou conecte-se a OpenAI, Anthropic, Groq, Gemini, Mistral e mais. Você escolhe.
Chat com documentos (RAG)
Faça upload de PDFs, documentos e arquivos de texto. Faça perguntas sobre seus documentos com busca semântica e embeddings vetoriais.
Artefatos interativos
Renderize HTML, SVG e componentes React diretamente no chat. Pré-visualização ao vivo com modo tela cheia.
Criptografia AES-256
Criptografia de nível empresarial para todos os seus dados. Histórico de chat, documentos e configurações criptografados em repouso.
Personas personalizadas
Crie personalidades de IA com comportamentos únicos e prompts de sistema. Importe/exporte personas como JSON.
Texto para fala
Ouça as respostas da IA com múltiplas opções de voz. Suporte para TTS do navegador e integração com ElevenLabs.
Atalhos de teclado
Atalhos inspirados no VS Code para usuários avançados. Navegue, alterne configurações e controle tudo pelo teclado.
Suporte multiusuário
Controle de acesso baseado em funções com suporte SSO. OAuth do GitHub e Hugging Face integrado.
Conecte-se a qualquer provedor
Uma interface, possibilidades ilimitadas
Comece em segundos
Escolha seu método de instalação preferido
Crie plugins personalizados
Conecte qualquer LLM compatível com OpenAI com um simples arquivo JSON
Plugins disponíveis
Plugins oficiais do repositório Libre WebUI. Clique para ver ou baixar.
{
"id": "custom-model",
"name": "Custom Model",
"type": "completion",
"endpoint": "http://localhost:8000/v1/chat/completions",
"auth": {
"header": "Authorization",
"prefix": "Bearer ",
"key_env": "CUSTOM_MODEL_API_KEY"
},
"model_map": [
"my-fine-tuned-llama"
]
} Crie seu próprio plugin
Inicie seu servidor LLM
Execute qualquer servidor compatível com OpenAI: llama.cpp, vLLM, Ollama ou um servidor FastAPI personalizado.
Crie o JSON do plugin
Defina seu endpoint, autenticação e modelos disponíveis em um simples arquivo JSON.
Faça upload para o Libre WebUI
Vá para Configurações > Provedores, faça upload do seu plugin e insira sua chave API.
Comece a conversar
Seus modelos personalizados aparecem no seletor. Privacidade total, controle total.
Referência de campos do plugin
id Identificador único (minúsculas, hífens permitidos) name Nome exibido na interface type "completion" para chat, "tts" para texto para fala endpoint URL da API (ex: /v1/chat/completions) auth.header Cabeçalho de auth (Authorization, x-api-key) auth.prefix Prefixo da chave ("Bearer " ou vazio) auth.key_env Variável de ambiente para sua chave API model_map Array de identificadores de modelos disponíveis Pronto para ser dono da sua IA?
Junte-se a milhares de usuários que valorizam privacidade e controle.