การใช้งาน Chinda LLM 4B กับ OpenWebUI - คู่มือผู้ใช้ฉบับสมบูรณ์
🎯 บทนำ
Chinda LLM 4B เป็นโมเดลภาษาไทยโอเพนซอร์สที่พัฒนาโดยทีมงาน iApp Technology สามารถคิดและตอบสนองเป็นภาษาไทยได้อย่างแม่นยำสูง โดยใช้สถาปัตยกรรม Qwen3-4B ล่าสุด
OpenWebUI เป็นอินเทอร์เฟซเว็บที่สวยงามและใช้งานง่ายสำหรับ Ollama ซึ่งมอบประสบการณ์ที่คล้าย ChatGPT สำหรับโมเดล AI ในเครื่อง มีอินเทอร์เฟซแชทที่ใช้งานง่ายพร้อมคุณสมบัติต่างๆ เช่น ประวัติการสนทนา การจัดการโมเดล และการตั้งค่าที่ปรับแต่งได้

OpenWebUI เวอร์ชันล่าสุด (v0.6.13) ได้เพิ่มคุณสมบัติใหม่ที่น่าตื่นเต้น เช่น การรองรับ Azure OpenAI embedding, การจัดการพารามิเตอร์ที่กำหนดเองที่ชาญฉลาดยิ่งขึ้น, การปรับปรุงโครงสร้างพื้นฐานแบ็กเอนด์โดยรวม และการปรับปรุงการรองรับภาษาสำหรับหลายภาษา
🚀 ขั้นตอนที่ 1: การติดตั้ง Docker
ติดตั้ง Docker
หากคุณยังไม่ได้ติดตั้ง Docker:
- Windows/Mac: ดาวน์โหลดได้จาก https://www.docker.com/products/docker-desktop
- Linux: ทำตามคู่มือการติดตั้ง Docker ของดิสทริบิวชันของคุณ
การตั้งค่าการรองรับ GPU (ไม่บังคับแต่แนะนำ)
สำหรับ GPU NVIDIA:
ติดตั้ง NVIDIA Container Toolkit เพื่อเปิดใช้งานการเร่งความเร็วด้วย GPU:
Ubuntu/Debian:
# เพิ่มคลังเก็บแพ็กเกจ NVIDIA
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
# ติดตั้ง nvidia-container-toolkit
sudo apt-get update && sudo apt-get install -y nvidia-container-toolkit
sudo systemctl restart docker
สำหรับ Linux ดิสทริบิวชันอื่นๆ, macOS หรือ Windows: ทำตาม คู่มือการติดตั้ง NVIDIA Container Toolkit
📱 ขั้นตอนที่ 2: การรัน OpenWebUI พร้อม Ollama ในตัว
วิธีที่ 1: OpenWebUI พร้อม Ollama ในตัว (แนะนำ)
วิธีนี้จะรันทั้ง OpenWebUI และ Ollama ในคอนเทนเนอร์เดียว:
สำหรับระบบที่ไม่มี GPU:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
สำหรับระบบที่มี NVIDIA GPU:
docker run -d -p 3000:8080 --gpus all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama