🖥️ แอปเดสก์ท็อปเร็วๆ นี้! แอป native สำหรับ macOS, Windows & Linux กำลังพัฒนา Star บน GitHub
โอเพนซอร์ส & โฮสต์เอง

AI ของคุณ กฎของคุณ

v0.2.3 มีอะไรใหม่?
บันทึกการเปิดตัว ดูทั้งหมด →
กำลังโหลด...

อินเทอร์เฟซแชท AI ที่ให้ความสำคัญกับความเป็นส่วนตัว รันในเครื่องด้วย Ollama หรือเชื่อมต่อ OpenAI, Anthropic และผู้ให้บริการ 9+ ราย ไม่มีการเก็บข้อมูล ไม่มีการติดตาม

npx libre-webui

ต้องการ Node.js 18+ และ Ollama สำหรับ AI ในเครื่อง

อินเทอร์เฟซ Libre WebUI
อินเทอร์เฟซ Libre WebUI
🔒 ไม่เก็บข้อมูล
🏠 โฮสต์เอง
📜 Apache 2.0
🔌 ระบบปลั๊กอิน

ทุกอย่างที่คุณต้องการ

โซลูชันแชท AI ที่ครบครันและเคารพความเป็นส่วนตัวของคุณ

🤖

AI ในเครื่อง & คลาวด์

รันโมเดลในเครื่องด้วย Ollama หรือเชื่อมต่อ OpenAI, Anthropic, Groq, Gemini, Mistral และอื่นๆ ทางเลือกของคุณ

📄

แชทเอกสาร (RAG)

อัปโหลด PDF, เอกสาร และไฟล์ข้อความ ถามคำถามเกี่ยวกับเอกสารด้วยการค้นหาเชิงความหมายและ vector embeddings

🎨

Artifacts แบบโต้ตอบ

แสดง HTML, SVG และ React components โดยตรงในแชท ดูตัวอย่างสดพร้อมโหมดเต็มหน้าจอ

🔐

เข้ารหัส AES-256

การเข้ารหัสระดับองค์กรสำหรับข้อมูลทั้งหมด ประวัติแชท, เอกสาร และการตั้งค่าถูกเข้ารหัสเมื่อจัดเก็บ

🎭

บุคลิกที่กำหนดเอง

สร้างบุคลิก AI ที่มีพฤติกรรมเฉพาะและ system prompts นำเข้า/ส่งออกบุคลิกเป็น JSON

🔊

แปลงข้อความเป็นเสียง

ฟังคำตอบ AI ด้วยตัวเลือกเสียงหลากหลาย รองรับ TTS ของเบราว์เซอร์และการผสาน ElevenLabs

⌨️

ปุ่มลัด

ปุ่มลัดสไตล์ VS Code สำหรับผู้ใช้ขั้นสูง นำทาง, สลับการตั้งค่า และควบคุมทุกอย่างจากคีย์บอร์ด

👥

รองรับหลายผู้ใช้

การควบคุมการเข้าถึงตามบทบาทพร้อม SSO OAuth GitHub และ Hugging Face ในตัว

เชื่อมต่อกับผู้ให้บริการใดก็ได้

อินเทอร์เฟซเดียว ความเป็นไปได้ไม่จำกัด

Ollama
โมเดลในเครื่อง
OpenAI
GPT-4o, o1, o3
Anthropic
Claude 4, Opus
Groq
Llama, Mixtral
Google
Gemini Pro
Mistral
Mistral Large
OpenRouter
400+ โมเดล
+ Custom
API ที่เข้ากันได้กับ OpenAI ใดก็ได้

เริ่มต้นในไม่กี่วินาที

เลือกวิธีการติดตั้งที่คุณต้องการ

แนะนำ

npx (คำสั่งเดียว)

npx libre-webui

รันทันที ไม่ต้องติดตั้ง

npm (ติดตั้งทั่วไป)

npm install -g libre-webuilibre-webui

ติดตั้งครั้งเดียว รันได้ทุกที่

Docker

docker run -p 8080:8080 libre-webui/libre-webui

การ deploy แบบ container

สร้างปลั๊กอินที่กำหนดเอง

เชื่อมต่อ LLM ที่เข้ากันได้กับ OpenAI ด้วยไฟล์ JSON ง่ายๆ

ปลั๊กอินที่มี

ปลั๊กอินอย่างเป็นทางการจาก repository Libre WebUI คลิกเพื่อดูหรือดาวน์โหลด

กำลังโหลดปลั๊กอินจาก GitHub...
📄 custom-model.json
{
  "id": "custom-model",
  "name": "Custom Model",
  "type": "completion",
  "endpoint": "http://localhost:8000/v1/chat/completions",
  "auth": {
    "header": "Authorization",
    "prefix": "Bearer ",
    "key_env": "CUSTOM_MODEL_API_KEY"
  },
  "model_map": [
    "my-fine-tuned-llama"
  ]
}

สร้างปลั๊กอินของคุณเอง

1

เริ่มเซิร์ฟเวอร์ LLM

รันเซิร์ฟเวอร์ที่เข้ากันได้กับ OpenAI: llama.cpp, vLLM, Ollama หรือเซิร์ฟเวอร์ FastAPI ที่กำหนดเอง

2

สร้าง Plugin JSON

กำหนด endpoint, การยืนยันตัวตน และโมเดลที่มีในไฟล์ JSON ง่ายๆ

3

อัปโหลดไปยัง Libre WebUI

ไปที่ การตั้งค่า > ผู้ให้บริการ อัปโหลดปลั๊กอินและใส่ API key

4

เริ่มแชท

โมเดลที่กำหนดเองปรากฏในตัวเลือกโมเดล ความเป็นส่วนตัวเต็มที่ การควบคุมเต็มที่

อ้างอิงฟิลด์ปลั๊กอิน

id ตัวระบุที่ไม่ซ้ำ (ตัวพิมพ์เล็ก อนุญาตขีดกลาง)
name ชื่อที่แสดงใน UI
type "completion" สำหรับแชท, "tts" สำหรับแปลงข้อความเป็นเสียง
endpoint URL API (เช่น /v1/chat/completions)
auth.header ชื่อ header ยืนยันตัวตน (Authorization, x-api-key)
auth.prefix คำนำหน้า key ("Bearer " หรือว่าง)
auth.key_env ตัวแปรสภาพแวดล้อมสำหรับ API key
model_map อาร์เรย์ของตัวระบุโมเดลที่มี

พร้อมที่จะเป็นเจ้าของ AI ของคุณ?

เข้าร่วมกับผู้ใช้หลายพันคนที่ให้ความสำคัญกับความเป็นส่วนตัวและการควบคุม