🖥️ App Desktop in arrivo! App native per macOS, Windows e Linux in sviluppo Metti una stella su GitHub
Open Source & Self-Hosted

La Tua AI, Le Tue Regole

v0.2.3 Novità
Note di rilascio Vedi tutto →
Caricamento...

Interfaccia chat AI orientata alla privacy. Esegui localmente con Ollama o connettiti a OpenAI, Anthropic e oltre 9 provider. Zero telemetria. Zero tracciamento.

npx libre-webui

Richiede Node.js 18+ e Ollama per AI locale

Interfaccia Libre WebUI
Interfaccia Libre WebUI
🔒 Zero Telemetria
🏠 Self-Hosted
📜 Apache 2.0
🔌 Sistema Plugin

Tutto Ciò di Cui Hai Bisogno

Una soluzione chat AI completa che rispetta la tua privacy

🤖

AI Locale & Cloud

Esegui modelli localmente con Ollama o connettiti a OpenAI, Anthropic, Groq, Gemini, Mistral e altri. La tua scelta.

📄

Chat Documenti (RAG)

Carica PDF, documenti e file di testo. Fai domande sui tuoi documenti con ricerca semantica e vector embeddings.

🎨

Artefatti Interattivi

Renderizza HTML, SVG e componenti React direttamente in chat. Anteprima live con modalità schermo intero.

🔐

Crittografia AES-256

Crittografia di livello enterprise per tutti i tuoi dati. Cronologia chat, documenti e impostazioni crittografati a riposo.

🎭

Personaggi Personalizzati

Crea personalità AI con comportamenti unici e prompt di sistema. Importa/esporta personaggi come JSON.

🔊

Text-to-Speech

Ascolta le risposte AI con multiple opzioni vocali. Supporta TTS del browser e integrazione ElevenLabs.

⌨️

Scorciatoie da Tastiera

Scorciatoie ispirate a VS Code per utenti esperti. Naviga, alterna impostazioni e controlla tutto dalla tastiera.

👥

Supporto Multi-Utente

Controllo accessi basato sui ruoli con supporto SSO. OAuth GitHub e Hugging Face integrati.

Connettiti a Qualsiasi Provider

Un'interfaccia, possibilità illimitate

Ollama
Modelli locali
OpenAI
GPT-4o, o1, o3
Anthropic
Claude 4, Opus
Groq
Llama, Mixtral
Google
Gemini Pro
Mistral
Mistral Large
OpenRouter
400+ modelli
+ Custom
Qualsiasi API compatibile OpenAI

Inizia in Pochi Secondi

Scegli il tuo metodo di installazione preferito

Consigliato

npx (Un Comando)

npx libre-webui

Esegue istantaneamente. Nessuna installazione richiesta.

npm (Installazione Globale)

npm install -g libre-webuilibre-webui

Installa una volta, esegui ovunque.

Docker

docker run -p 8080:8080 libre-webui/libre-webui

Deployment containerizzato.

Crea Plugin Personalizzati

Connetti qualsiasi LLM compatibile OpenAI con un semplice file JSON

Plugin Disponibili

Plugin ufficiali dal repository Libre WebUI. Clicca per visualizzare o scaricare.

Caricamento plugin da GitHub...
📄 custom-model.json
{
  "id": "custom-model",
  "name": "Custom Model",
  "type": "completion",
  "endpoint": "http://localhost:8000/v1/chat/completions",
  "auth": {
    "header": "Authorization",
    "prefix": "Bearer ",
    "key_env": "CUSTOM_MODEL_API_KEY"
  },
  "model_map": [
    "my-fine-tuned-llama"
  ]
}

Crea il Tuo Plugin

1

Avvia il Tuo Server LLM

Esegui qualsiasi server compatibile OpenAI: llama.cpp, vLLM, Ollama o un server FastAPI personalizzato.

2

Crea il Plugin JSON

Definisci endpoint, autenticazione e modelli disponibili in un semplice file JSON.

3

Carica su Libre WebUI

Vai su Impostazioni > Provider, carica il tuo plugin e inserisci la tua chiave API.

4

Inizia a Chattare

I tuoi modelli personalizzati appaiono nel selettore. Privacy totale, controllo totale.

Riferimento Campi Plugin

id Identificatore unico (minuscolo, trattini consentiti)
name Nome visualizzato nell'interfaccia
type "completion" per chat, "tts" per text-to-speech
endpoint URL API (es., /v1/chat/completions)
auth.header Nome header autenticazione (Authorization, x-api-key)
auth.prefix Prefisso chiave ("Bearer " o vuoto)
auth.key_env Variabile ambiente per la tua chiave API
model_map Array di identificatori modelli disponibili

Pronto a Possedere la Tua AI?

Unisciti a migliaia di utenti che apprezzano privacy e controllo.