零遥测
自托管
Apache 2.0
插件系统
你需要的一切
尊重隐私的完整 AI 聊天解决方案
本地 & 云端 AI
使用 Ollama 本地运行模型,或连接 OpenAI、Anthropic、Groq、Gemini、Mistral 等。选择权在你。
文档对话 (RAG)
上传 PDF、文档和文本文件。通过语义搜索和向量嵌入询问文档相关问题。
交互式工件
直接在聊天中渲染 HTML、SVG 和 React 组件。支持全屏模式实时预览。
AES-256 加密
为所有数据提供企业级加密。聊天记录、文档和设置均加密存储。
自定义角色
创建具有独特行为和系统提示的 AI 个性。支持 JSON 导入/导出角色。
文字转语音
使用多种语音选项收听 AI 回复。支持浏览器 TTS 和 ElevenLabs 集成。
键盘快捷键
为高级用户提供 VS Code 风格快捷键。通过键盘导航、切换设置、控制一切。
多用户支持
支持 SSO 的基于角色的访问控制。内置 GitHub 和 Hugging Face OAuth。
连接任何服务商
一个界面,无限可能
Ollama
本地模型
OpenAI
GPT-4o, o1, o3
Anthropic
Claude 4, Opus
Groq
Llama, Mixtral
Google
Gemini Pro
Mistral
Mistral Large
OpenRouter
400+ 模型
+ Custom
任何 OpenAI 兼容 API
几秒钟即可开始
选择你喜欢的安装方式
创建自定义插件
通过简单的 JSON 文件连接任何 OpenAI 兼容 LLM
可用插件
Libre WebUI 仓库的官方插件。点击查看或下载。
从 GitHub 加载插件...
custom-model.json
{
"id": "custom-model",
"name": "Custom Model",
"type": "completion",
"endpoint": "http://localhost:8000/v1/chat/completions",
"auth": {
"header": "Authorization",
"prefix": "Bearer ",
"key_env": "CUSTOM_MODEL_API_KEY"
},
"model_map": [
"my-fine-tuned-llama"
]
} 创建你自己的插件
1
启动 LLM 服务器
运行任何 OpenAI 兼容服务器:llama.cpp、vLLM、Ollama 或自定义 FastAPI 服务器。
2
创建插件 JSON
在简单的 JSON 文件中定义端点、认证和可用模型。
3
上传到 Libre WebUI
进入设置 > 服务商,上传插件并输入 API 密钥。
4
开始聊天
自定义模型将出现在模型选择器中。完全隐私,完全掌控。
插件字段参考
id 唯一标识符(小写,可用连字符) name UI 中显示的名称 type 聊天用 "completion",语音合成用 "tts" endpoint API URL(例如:/v1/chat/completions) auth.header 认证头名称(Authorization、x-api-key) auth.prefix 密钥前缀("Bearer " 或空) auth.key_env API 密钥的环境变量 model_map 可用模型标识符数组 准备好掌控你的 AI 了吗?
加入数千名重视隐私和掌控的用户。