🖥️ Aplicativo desktop em breve! Aplicativos nativos para macOS, Windows e Linux em desenvolvimento Star no GitHub
Código Aberto e Auto-hospedado

Sua IA, suas regras

v0.2.3 O que há de novo?
Notas de versão Ver tudo →
Carregando...

Interface de chat IA com foco em privacidade. Execute localmente com Ollama ou conecte-se a OpenAI, Anthropic e mais de 9 provedores. Zero telemetria. Zero rastreamento.

npx libre-webui

Requer Node.js 18+ e Ollama para IA local

Interface do Libre WebUI
Interface do Libre WebUI
🔒 Zero telemetria
🏠 Auto-hospedado
📜 Apache 2.0
🔌 Sistema de plugins

Tudo o que você precisa

Uma solução completa de chat IA que respeita sua privacidade

🤖

IA Local e na Nuvem

Execute modelos localmente com Ollama ou conecte-se a OpenAI, Anthropic, Groq, Gemini, Mistral e mais. Você escolhe.

📄

Chat com documentos (RAG)

Faça upload de PDFs, documentos e arquivos de texto. Faça perguntas sobre seus documentos com busca semântica e embeddings vetoriais.

🎨

Artefatos interativos

Renderize HTML, SVG e componentes React diretamente no chat. Pré-visualização ao vivo com modo tela cheia.

🔐

Criptografia AES-256

Criptografia de nível empresarial para todos os seus dados. Histórico de chat, documentos e configurações criptografados em repouso.

🎭

Personas personalizadas

Crie personalidades de IA com comportamentos únicos e prompts de sistema. Importe/exporte personas como JSON.

🔊

Texto para fala

Ouça as respostas da IA com múltiplas opções de voz. Suporte para TTS do navegador e integração com ElevenLabs.

⌨️

Atalhos de teclado

Atalhos inspirados no VS Code para usuários avançados. Navegue, alterne configurações e controle tudo pelo teclado.

👥

Suporte multiusuário

Controle de acesso baseado em funções com suporte SSO. OAuth do GitHub e Hugging Face integrado.

Conecte-se a qualquer provedor

Uma interface, possibilidades ilimitadas

Ollama
Modelos locais
OpenAI
GPT-4o, o1, o3
Anthropic
Claude 4, Opus
Groq
Llama, Mixtral
Google
Gemini Pro
Mistral
Mistral Large
OpenRouter
400+ modelos
+ Custom
Qualquer API compatível com OpenAI

Comece em segundos

Escolha seu método de instalação preferido

Recomendado

npx (Um comando)

npx libre-webui

Executa instantaneamente. Não requer instalação.

npm (Instalação global)

npm install -g libre-webuilibre-webui

Instale uma vez, execute em qualquer lugar.

Docker

docker run -p 8080:8080 libre-webui/libre-webui

Implantação em contêiner.

Crie plugins personalizados

Conecte qualquer LLM compatível com OpenAI com um simples arquivo JSON

Plugins disponíveis

Plugins oficiais do repositório Libre WebUI. Clique para ver ou baixar.

Carregando plugins do GitHub...
📄 custom-model.json
{
  "id": "custom-model",
  "name": "Custom Model",
  "type": "completion",
  "endpoint": "http://localhost:8000/v1/chat/completions",
  "auth": {
    "header": "Authorization",
    "prefix": "Bearer ",
    "key_env": "CUSTOM_MODEL_API_KEY"
  },
  "model_map": [
    "my-fine-tuned-llama"
  ]
}

Crie seu próprio plugin

1

Inicie seu servidor LLM

Execute qualquer servidor compatível com OpenAI: llama.cpp, vLLM, Ollama ou um servidor FastAPI personalizado.

2

Crie o JSON do plugin

Defina seu endpoint, autenticação e modelos disponíveis em um simples arquivo JSON.

3

Faça upload para o Libre WebUI

Vá para Configurações > Provedores, faça upload do seu plugin e insira sua chave API.

4

Comece a conversar

Seus modelos personalizados aparecem no seletor. Privacidade total, controle total.

Referência de campos do plugin

id Identificador único (minúsculas, hífens permitidos)
name Nome exibido na interface
type "completion" para chat, "tts" para texto para fala
endpoint URL da API (ex: /v1/chat/completions)
auth.header Cabeçalho de auth (Authorization, x-api-key)
auth.prefix Prefixo da chave ("Bearer " ou vazio)
auth.key_env Variável de ambiente para sua chave API
model_map Array de identificadores de modelos disponíveis

Pronto para ser dono da sua IA?

Junte-se a milhares de usuários que valorizam privacidade e controle.