🖥️ Application de bureau bientôt disponible ! Applications natives pour macOS, Windows et Linux en développement Star sur GitHub
Open Source et Auto-hébergé

Votre IA, vos règles

v0.2.3 Quoi de neuf ?
Notes de version Voir tout →
Chargement...

Interface de chat IA axée sur la confidentialité. Exécutez localement avec Ollama ou connectez-vous à OpenAI, Anthropic et 9+ fournisseurs. Zéro télémétrie. Zéro suivi.

npx libre-webui

Nécessite Node.js 18+ et Ollama pour l'IA locale

Interface Libre WebUI
Interface Libre WebUI
🔒 Zéro télémétrie
🏠 Auto-hébergé
📜 Apache 2.0
🔌 Système de plugins

Tout ce dont vous avez besoin

Une solution de chat IA complète qui respecte votre vie privée

🤖

IA Locale et Cloud

Exécutez des modèles localement avec Ollama ou connectez-vous à OpenAI, Anthropic, Groq, Gemini, Mistral et plus. À vous de choisir.

📄

Chat avec documents (RAG)

Téléchargez des PDF, documents et fichiers texte. Posez des questions sur vos documents avec recherche sémantique et embeddings vectoriels.

🎨

Artefacts interactifs

Rendez HTML, SVG et composants React directement dans le chat. Aperçu en direct avec mode plein écran.

🔐

Chiffrement AES-256

Chiffrement de niveau entreprise pour toutes vos données. Historique de chat, documents et paramètres chiffrés au repos.

🎭

Personas personnalisés

Créez des personnalités IA avec comportements uniques et prompts système. Import/export de personas en JSON.

🔊

Synthèse vocale

Écoutez les réponses IA avec plusieurs options de voix. Support TTS navigateur et intégration ElevenLabs.

⌨️

Raccourcis clavier

Raccourcis inspirés de VS Code pour utilisateurs avancés. Naviguez, basculez les paramètres et contrôlez tout au clavier.

👥

Support multi-utilisateurs

Contrôle d'accès basé sur les rôles avec support SSO. OAuth GitHub et Hugging Face intégré.

Connectez-vous à n'importe quel fournisseur

Une interface, des possibilités illimitées

Ollama
Modèles locaux
OpenAI
GPT-4o, o1, o3
Anthropic
Claude 4, Opus
Groq
Llama, Mixtral
Google
Gemini Pro
Mistral
Mistral Large
OpenRouter
400+ modèles
+ Custom
Toute API compatible OpenAI

Démarrez en quelques secondes

Choisissez votre méthode d'installation préférée

Recommandé

npx (Une commande)

npx libre-webui

S'exécute instantanément. Aucune installation requise.

npm (Installation globale)

npm install -g libre-webuilibre-webui

Installez une fois, exécutez partout.

Docker

docker run -p 8080:8080 libre-webui/libre-webui

Déploiement conteneurisé.

Créez des plugins personnalisés

Connectez n'importe quel LLM compatible OpenAI avec un simple fichier JSON

Plugins disponibles

Plugins officiels du dépôt Libre WebUI. Cliquez pour voir ou télécharger.

Chargement des plugins depuis GitHub...
📄 custom-model.json
{
  "id": "custom-model",
  "name": "Custom Model",
  "type": "completion",
  "endpoint": "http://localhost:8000/v1/chat/completions",
  "auth": {
    "header": "Authorization",
    "prefix": "Bearer ",
    "key_env": "CUSTOM_MODEL_API_KEY"
  },
  "model_map": [
    "my-fine-tuned-llama"
  ]
}

Créez votre propre plugin

1

Démarrez votre serveur LLM

Exécutez n'importe quel serveur compatible OpenAI : llama.cpp, vLLM, Ollama ou un serveur FastAPI personnalisé.

2

Créez le JSON du plugin

Définissez votre endpoint, authentification et modèles disponibles dans un simple fichier JSON.

3

Téléchargez vers Libre WebUI

Allez dans Paramètres > Fournisseurs, téléchargez votre plugin et entrez votre clé API.

4

Commencez à discuter

Vos modèles personnalisés apparaissent dans le sélecteur. Confidentialité totale, contrôle total.

Référence des champs de plugin

id Identifiant unique (minuscules, tirets autorisés)
name Nom affiché dans l'interface
type "completion" pour chat, "tts" pour synthèse vocale
endpoint URL API (ex: /v1/chat/completions)
auth.header En-tête d'auth (Authorization, x-api-key)
auth.prefix Préfixe de clé ("Bearer " ou vide)
auth.key_env Variable d'environnement pour votre clé API
model_map Tableau des identifiants de modèles disponibles

Prêt à posséder votre IA ?

Rejoignez des milliers d'utilisateurs qui valorisent la confidentialité et le contrôle.