🖥️ ¡Aplicación de escritorio próximamente! Aplicaciones nativas para macOS, Windows y Linux en desarrollo Star en GitHub
Código Abierto y Auto-alojado

Tu IA, tus reglas

v0.2.3 ¿Qué hay de nuevo?
Notas de versión Ver todo →
Cargando...

Interfaz de chat IA con prioridad en la privacidad. Ejecuta localmente con Ollama o conecta con OpenAI, Anthropic y más de 9 proveedores. Cero telemetría. Cero rastreo.

npx libre-webui

Requiere Node.js 18+ y Ollama para IA local

Interfaz de Libre WebUI
Interfaz de Libre WebUI
🔒 Cero telemetría
🏠 Auto-alojado
📜 Apache 2.0
🔌 Sistema de plugins

Todo lo que necesitas

Una solución completa de chat IA que respeta tu privacidad

🤖

IA Local y en la Nube

Ejecuta modelos localmente con Ollama o conecta con OpenAI, Anthropic, Groq, Gemini, Mistral y más. Tú eliges.

📄

Chat con documentos (RAG)

Sube PDFs, documentos y archivos de texto. Haz preguntas sobre tus documentos con búsqueda semántica y embeddings vectoriales.

🎨

Artefactos interactivos

Renderiza HTML, SVG y componentes React directamente en el chat. Vista previa en vivo con modo pantalla completa.

🔐

Cifrado AES-256

Cifrado de nivel empresarial para todos tus datos. Historial de chat, documentos y configuraciones cifrados en reposo.

🎭

Personas personalizadas

Crea personalidades IA con comportamientos únicos y prompts de sistema. Importa/exporta personas como JSON.

🔊

Texto a voz

Escucha las respuestas de IA con múltiples opciones de voz. Soporte para TTS del navegador e integración con ElevenLabs.

⌨️

Atajos de teclado

Atajos inspirados en VS Code para usuarios avanzados. Navega, cambia configuraciones y controla todo desde el teclado.

👥

Soporte multiusuario

Control de acceso basado en roles con soporte SSO. OAuth de GitHub y Hugging Face integrado.

Conecta con cualquier proveedor

Una interfaz, posibilidades ilimitadas

Ollama
Modelos locales
OpenAI
GPT-4o, o1, o3
Anthropic
Claude 4, Opus
Groq
Llama, Mixtral
Google
Gemini Pro
Mistral
Mistral Large
OpenRouter
400+ modelos
+ Custom
Cualquier API compatible con OpenAI

Empieza en segundos

Elige tu método de instalación preferido

Recomendado

npx (Un comando)

npx libre-webui

Se ejecuta instantáneamente. No requiere instalación.

npm (Instalación global)

npm install -g libre-webuilibre-webui

Instala una vez, ejecuta en cualquier lugar.

Docker

docker run -p 8080:8080 libre-webui/libre-webui

Despliegue en contenedor.

Crea plugins personalizados

Conecta cualquier LLM compatible con OpenAI con un simple archivo JSON

Plugins disponibles

Plugins oficiales del repositorio de Libre WebUI. Haz clic para ver o descargar.

Cargando plugins desde GitHub...
📄 custom-model.json
{
  "id": "custom-model",
  "name": "Custom Model",
  "type": "completion",
  "endpoint": "http://localhost:8000/v1/chat/completions",
  "auth": {
    "header": "Authorization",
    "prefix": "Bearer ",
    "key_env": "CUSTOM_MODEL_API_KEY"
  },
  "model_map": [
    "my-fine-tuned-llama"
  ]
}

Crea tu propio plugin

1

Inicia tu servidor LLM

Ejecuta cualquier servidor compatible con OpenAI: llama.cpp, vLLM, Ollama o un servidor FastAPI personalizado.

2

Crea el JSON del plugin

Define tu endpoint, autenticación y modelos disponibles en un simple archivo JSON.

3

Sube a Libre WebUI

Ve a Ajustes > Proveedores, sube tu plugin e introduce tu clave API.

4

Empieza a chatear

Tus modelos personalizados aparecen en el selector. Privacidad total, control total.

Referencia de campos del plugin

id Identificador único (minúsculas, guiones permitidos)
name Nombre mostrado en la interfaz
type "completion" para chat, "tts" para texto a voz
endpoint URL de API (ej: /v1/chat/completions)
auth.header Cabecera de auth (Authorization, x-api-key)
auth.prefix Prefijo de clave ("Bearer " o vacío)
auth.key_env Variable de entorno para tu clave API
model_map Array de identificadores de modelos disponibles

¿Listo para ser dueño de tu IA?

Únete a miles de usuarios que valoran la privacidad y el control.