Skip to main content

การใช้งาน Chinda LLM 4B กับ OpenWebUI - คู่มือผู้ใช้ฉบับสมบูรณ์

🎯 บทนำ

Chinda LLM 4B เป็นโมเดลภาษาไทยโอเพนซอร์สที่พัฒนาโดยทีมงาน iApp Technology สามารถคิดและตอบสนองเป็นภาษาไทยได้อย่างแม่นยำสูง โดยใช้สถาปัตยกรรม Qwen3-4B ล่าสุด

OpenWebUI เป็นอินเทอร์เฟซเว็บที่สวยงามและใช้งานง่ายสำหรับ Ollama ซึ่งมอบประสบการณ์ที่คล้าย ChatGPT สำหรับโมเดล AI ในเครื่อง มีอินเทอร์เฟซแชทที่ใช้งานง่ายพร้อมคุณสมบัติต่างๆ เช่น ประวัติการสนทนา การจัดการโมเดล และการตั้งค่าที่ปรับแต่งได้

image.png

OpenWebUI เวอร์ชันล่าสุด (v0.6.13) ได้เพิ่มคุณสมบัติใหม่ที่น่าตื่นเต้น เช่น การรองรับ Azure OpenAI embedding, การจัดการพารามิเตอร์ที่กำหนดเองที่ชาญฉลาดยิ่งขึ้น, การปรับปรุงโครงสร้างพื้นฐานแบ็กเอนด์โดยรวม และการปรับปรุงการรองรับภาษาสำหรับหลายภาษา

🚀 ขั้นตอนที่ 1: การติดตั้ง Docker

ติดตั้ง Docker

หากคุณยังไม่ได้ติดตั้ง Docker:

  • Windows/Mac: ดาวน์โหลดได้จาก https://www.docker.com/products/docker-desktop
  • Linux: ทำตามคู่มือการติดตั้ง Docker ของดิสทริบิวชันของคุณ

การตั้งค่าการรองรับ GPU (ไม่บังคับแต่แนะนำ)

สำหรับ GPU NVIDIA:

ติดตั้ง NVIDIA Container Toolkit เพื่อเปิดใช้งานการเร่งความเร็วด้วย GPU:

Ubuntu/Debian:

# เพิ่มคลังเก็บแพ็กเกจ NVIDIA
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list

# ติดตั้ง nvidia-container-toolkit
sudo apt-get update && sudo apt-get install -y nvidia-container-toolkit
sudo systemctl restart docker

สำหรับ Linux ดิสทริบิวชันอื่นๆ, macOS หรือ Windows: ทำตาม คู่มือการติดตั้ง NVIDIA Container Toolkit

📱 ขั้นตอนที่ 2: การรัน OpenWebUI พร้อม Ollama ในตัว

วิธีที่ 1: OpenWebUI พร้อม Ollama ในตัว (แนะนำ)

วิธีนี้จะรันทั้ง OpenWebUI และ Ollama ในคอนเทนเนอร์เดียว:

สำหรับระบบที่ไม่มี GPU:

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

สำหรับระบบที่มี NVIDIA GPU:

docker run -d -p 3000:8080 --gpus all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

วิธีที่ 2: การใช้ Docker Compose (ขั้นสูง)

สร้างไฟล์ docker-compose.yml:

version: '3.8'

services:
open-webui:
image: ghcr.io/open-webui/open-webui:ollama
container_name: open-webui
ports:
- "3000:8080"
volumes:
- ollama:/root/.ollama
- open-webui:/app/backend/data
restart: always
# ยกเลิกคอมเมนต์บรรทัดด้านล่างสำหรับการรองรับ GPU
# deploy:
# resources:
# reservations:
# devices:
# - driver: nvidia
# count: all
# capabilities: [gpu]

volumes:
ollama:
open-webui:

รันด้วย:

docker-compose up -d

การเข้าถึง OpenWebUI

  1. เปิดเว็บเบราว์เซอร์ของคุณ
  2. ไปที่ http://localhost:3000
  3. คุณควรจะเห็นหน้าจอเริ่มต้นของ OpenWebUI

image copy.png

🔍 ขั้นตอนที่ 3: การดาวน์โหลดโมเดล Chinda LLM 4B

การใช้ส่วนต่อประสาน OpenWebUI (แนะนำ)

เมื่อ OpenWebUI ทำงานแล้ว คุณสามารถดาวน์โหลดโมเดล Chinda LLM 4B ได้โดยตรงผ่านอินเทอร์เฟซเว็บ:

  1. เปิดเบราว์เซอร์ของคุณและไปที่ http://localhost:3000
  2. ทำการตั้งค่าเริ่มต้นให้เสร็จสิ้น (สร้างบัญชี)
  3. ค้นหาโมเดลโดยพิมพ์ iapp/chinda-qwen3-4b ในช่องค้นหาโมเดล

image copy 2.png

  1. คลิก Pull "iapp/chinda-qwen3-4b" from Ollama.com
  2. รอจนกว่าการดาวน์โหลดจะเสร็จสมบูรณ์ (ประมาณ 2.5GB)

image copy 3.png

  1. คุณจะเห็นการแจ้งเตือนความสำเร็จเมื่อดาวน์โหลดโมเดลเสร็จแล้ว

image copy 4.png

การใช้ Docker Exec (ทางเลือก)

คุณสามารถดาวน์โหลดโมเดลโดยใช้ Docker exec:

# ดาวน์โหลดโมเดล Chinda LLM 4B
docker exec -it open-webui ollama pull iapp/chinda-qwen3-4b

# ตรวจสอบว่าดาวน์โหลดโมเดลแล้ว
docker exec -it open-webui ollama list

🔍 ขั้นตอนที่ 4: การตั้งค่าเริ่มต้น

สร้างบัญชีของคุณ

  1. ในการเข้าชมครั้งแรก คุณจะเห็นฟอร์ม Sign Up
  2. ป้อนอีเมลและรหัสผ่านที่คุณต้องการ
  3. คลิก Create Account

image copy 6.png

  1. คุณจะเข้าสู่ระบบโดยอัตโนมัติ

หมายเหตุ: นี่เป็นบัญชีภายในเครื่องสำหรับคอมพิวเตอร์ของคุณเท่านั้น - จะไม่มีการส่งข้อมูลไปยังเซิร์ฟเวอร์ภายนอก

⚙️ ขั้นตอนที่ 5: การใช้งาน Chinda LLM 4B

เลือกโมเดล

  1. ในอินเทอร์เฟซแชท มองหาดรอปดาวน์ Model ที่ด้านบน
  2. เลือก chinda-qwen3-4b:latest จากรายการ
  3. หากคุณไม่เห็น ให้ตรวจสอบให้แน่ใจว่าคุณได้ดาวน์โหลดโมเดลแล้วตามขั้นตอนข้างต้น

image copy 5.png

เริ่มการสนทนาครั้งแรกของคุณ

  1. พิมพ์ข้อความของคุณเป็นภาษาไทยในช่องแชท
  2. กด Enter หรือคลิกปุ่มส่ง
  3. Chinda LLM จะตอบกลับเป็นภาษาไทย

image copy 7.png

ตัวอย่างการสนทนา:

ดังที่คุณเห็นในภาพหน้าจอข้างต้น Chinda LLM ตอบสนองอย่างเป็นธรรมชาติเป็นภาษาไทยและแนะนำตัวเองว่าเป็นผู้ช่วย AI ที่พัฒนาโดย บริษัท ไอแอพพ์เทคโนโลยี จำกัด โมเดลนี้แสดงให้เห็นถึงความสามารถในการทำความเข้าใจบริบทและให้การตอบสนองที่รอบคอบเป็นภาษาไทย

คำถามคณิตศาสตร์:

คุณ: ช่วยแก้สมการ 3x + 7 = 22 ให้หน่อย
Chinda: ผมจะช่วยแก้สมการ 3x + 7 = 22 ให้คุณครับ

ขั้นตอนการแก้:
1) 3x + 7 = 22
2) 3x = 22 - 7
3) 3x = 15
4) x = 15 ÷ 3
5) x = 5

ดังนั้น x = 5 ครับ

การเขียนเอกสาร:

คุณ: ช่วยเขียนอีเมลขอบคุณลูกค้าให้หน่อย
Chinda: ผมจะช่วยเขียนอีเมลขอบคุณลูกค้าให้คุณครับ

เรื่อง: ขอบพระคุณสำหรับการใช้บริการ

เรียน คุณลูกค้าที่เคารพ,

ทางบริษัทฯ ขอขอบพระคุณอย่างสูงสำหรับการให้ความไว้วางใจและใช้บริการของเรา...

🎨 ขั้นตอนที่ 6: คุณสมบัติขั้นสูง

การจัดการการสนทนา

สร้างแชทใหม่:

  • คลิกปุ่ม + เพื่อเริ่มการสนทนาใหม่
  • แต่ละการสนทนาจะถูกบันทึกแยกต่างหาก
  • คุณสามารถสลับระหว่างการสนทนาได้ตลอดเวลา

เปลี่ยนชื่อการสนทนา:

  • คลิกที่ชื่อการสนทนา
  • ป้อนชื่อใหม่เพื่อจัดระเบียบแชทของคุณ

ส่งออกการสนทนา:

  • คลิกที่การตั้งค่าการสนทนา (จุดสามจุด)
  • เลือก Export เพื่อบันทึกเป็น JSON หรือ Markdown

ปรับแต่งการตั้งค่าโมเดล

เข้าถึงการตั้งค่าโมเดล:

  1. คลิกไอคอน Settings ที่อยู่ถัดจากชื่อโมเดล
  2. ปรับพารามิเตอร์ต่างๆ เช่น:
    • Temperature (0.1-1.0): ควบคุมความคิดสร้างสรรค์
    • Top P (0.1-1.0): ควบคุมความหลากหลายของการตอบสนอง
    • Top K (1-100): จำกัดตัวเลือกคำศัพท์
    • Max Tokens: ความยาวการตอบสนองสูงสุด

การตั้งค่าที่แนะนำสำหรับ Chinda LLM:

  • Temperature: 0.7 (สร้างสรรค์สมดุล)
  • Top P: 0.9 (ความหลากหลายดี)
  • Top K: 40 (การตอบสนองที่เฉพาะเจาะจง)

System Prompts

คุณสามารถตั้งค่า System Prompts ที่กำหนดเองเพื่อปรับเปลี่ยนพฤติกรรมของ Chinda:

ตัวอย่าง System Prompts:

สำหรับการเขียนระดับมืออาชีพ:

คุณเป็นผู้ช่วยเขียนเอกสารมืออาชีพ ตอบด้วยภาษาไทยที่เป็นทางการและสุภาพ

สำหรับเนื้อหาทางการศึกษา:

คุณเป็นครูสอนภาษาไทย อธิบายให้เข้าใจง่าย ใช้ตัวอย่างประกอบ

สำหรับการเขียนเชิงสร้างสรรค์:

คุณเป็นนักเขียนที่มีจินตนาการสูง สร้างเนื้อหาที่น่าสนใจและสร้างสรรค์

📊 ขั้นตอนที่ 7: การจัดการโมเดล

ดูโมเดลที่มีอยู่

  1. ไปที่ SettingsModels
  2. ดูโมเดลที่ดาวน์โหลดทั้งหมด
  3. ตรวจสอบขนาดและข้อมูลของโมเดล

ดาวน์โหลดโมเดลใหม่

การใช้คอนเทนเนอร์:

# ดาวน์โหลดโมเดลใหม่โดยใช้ docker exec
docker exec -it open-webui ollama pull <model-name>

หรือใช้ส่วนต่อประสาน OpenWebUI: SettingsModelsPull a model from Ollama.com

ลบโมเดล

# ลบโมเดลโดยใช้ docker exec
docker exec -it open-webui ollama rm <model-name>

🔧 ขั้นตอนที่ 8: การแก้ไขปัญหา

ปัญหาทั่วไปและวิธีแก้ไข

ปัญหา: ไม่พบโมเดล Chinda

อาการ: โมเดลไม่ปรากฏในรายการดรอปดาวน์ วิธีแก้ไข:

  1. ตรวจสอบว่าคอนเทนเนอร์กำลังทำงานอยู่หรือไม่: docker ps
  2. ตรวจสอบว่าโมเดลถูกดาวน์โหลดแล้วหรือไม่: docker exec -it open-webui ollama list
  3. ดาวน์โหลดโมเดลหากจำเป็น: docker exec -it open-webui ollama pull iapp/chinda-qwen3-4b
  4. รีเฟรชหน้า OpenWebUI

ปัญหา: "Connection Error" หรือคอนเทนเนอร์ไม่เริ่มทำงาน

อาการ: ไม่สามารถเข้าถึง OpenWebUI หรือคอนเทนเนอร์ล้มเหลวในการเริ่มต้น วิธีแก้ไข:

  1. ตรวจสอบว่า Docker กำลังทำงานอยู่หรือไม่: docker version
  2. ตรวจสอบสถานะคอนเทนเนอร์: docker ps -a
  3. ตรวจสอบล็อกคอนเทนเนอร์: docker logs open-webui
  4. รีสตาร์ทคอนเทนเนอร์: docker restart open-webui

ปัญหา: การตอบสนองช้า

วิธีแก้ไข:

  1. ปิดแอปพลิเคชันที่ไม่จำเป็น
  2. ลดค่า Max Tokens ในการตั้งค่าโมเดล
  3. ลดค่า temperature และ top_k
  4. ตรวจสอบให้แน่ใจว่ามี RAM เพียงพอ (แนะนำ 8GB ขึ้นไป)

ปัญหา: GPU ไม่ทำงาน

อาการ: ประสิทธิภาพช้าแม้มี GPU วิธีแก้ไข:

  1. ตรวจสอบไดรเวอร์ NVIDIA: nvidia-smi
  2. ตรวจสอบ NVIDIA Container Toolkit: docker run --rm --gpus all nvidia/cuda:11.0-base nvidia-smi
  3. รีสตาร์ทคอนเทนเนอร์พร้อมการรองรับ GPU:
# หยุดคอนเทนเนอร์ที่มีอยู่
docker stop open-webui
docker rm open-webui

# รันพร้อมการรองรับ GPU
docker run -d -p 3000:8080 --gpus all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

การเพิ่มประสิทธิภาพ

  1. ใช้ที่เก็บข้อมูล SSD เพื่อการโหลดโมเดลที่ดีขึ้น
  2. จัดสรร RAM เพียงพอ (ขั้นต่ำ 8GB)
  3. ปิดแอปพลิเคชันเบื้องหลัง
  4. ใช้การตั้งค่าความแม่นยำต่ำ หากหน่วยความจำจำกัด

🎯 กรณีการใช้งานที่เหมาะสม

✅ Chinda LLM 4B ทำงานได้ดีใน OpenWebUI

  1. การสนทนาเชิงโต้ตอบ - ประสบการณ์การแชทที่เป็นธรรมชาติพร้อมประวัติการสนทนา
  2. การร่างเอกสาร - เขียนและแก้ไขเอกสารด้วยการแก้ไขที่ง่ายดาย
  3. เนื้อหาทางการศึกษา - เรียนรู้พร้อมการอ้างอิงการสนทนาที่บันทึกไว้
  4. การเขียนเชิงสร้างสรรค์ - พัฒนาเรื่องราวและเนื้อหาพร้อมการแก้ไขหลายครั้ง
  5. ความช่วยเหลือด้านการเขียนโปรแกรม - การสร้างโค้ดพร้อมการเน้นไวยากรณ์
  6. การแปลภาษา - การแปลภาษาไทย-อังกฤษอย่างรวดเร็ว
  7. ผู้ช่วยวิจัย - จัดระเบียบข้อมูลผ่านการแชทหลายรายการ

🌟 ข้อได้เปรียบเฉพาะของ OpenWebUI

  1. อินเทอร์เฟซที่สวยงาม - การออกแบบที่สะอาดตา ทันสมัย เหมือน ChatGPT
  2. ประวัติการสนทนา - แชททั้งหมดจะถูกบันทึกโดยอัตโนมัติ
  3. รองรับหลายโมเดล - สลับระหว่างโมเดลต่างๆ ได้อย่างง่ายดาย
  4. ตัวเลือกการส่งออก - บันทึกการสนทนาในรูปแบบต่างๆ
  5. การตั้งค่าที่ปรับแต่งได้ - ปรับแต่งพฤติกรรมโมเดลสำหรับการสนทนาแต่ละครั้ง
  6. ไม่ต้องใช้อินเทอร์เน็ต - ความเป็นส่วนตัวสมบูรณ์ด้วยการประมวลผลภายในเครื่อง

❌ ข้อจำกัดที่ควรทราบ

อย่าถามหาข้อเท็จจริงโดยไม่มีบริบท เช่น:

  • เหตุการณ์ข่าวล่าสุด (มีการจำกัดข้อมูลการฝึกโมเดล)
  • ข้อมูลสถิติเฉพาะเจาะจงโดยไม่มีแหล่งที่มา
  • ข้อมูลแบบเรียลไทม์
  • ข้อมูลเกี่ยวกับบุคคลเฉพาะหรือเหตุการณ์ปัจจุบัน

เนื่องจาก Chinda LLM 4B เป็นโมเดลขนาด 4B พารามิเตอร์ จึงอาจสร้างข้อมูลที่ไม่ถูกต้อง (hallucination) เมื่อถูกถามเกี่ยวกับข้อเท็จจริงเฉพาะ

🚀 ข้อมูลจำเพาะของโมเดล

  • ขนาด: 2.5GB (quantized)
  • Context Window: 40K tokens
  • สถาปัตยกรรม: ใช้ Qwen3-4B เป็นพื้นฐาน ปรับแต่งสำหรับภาษาไทย
  • ประสิทธิภาพ: การอนุมานที่รวดเร็วบนฮาร์ดแวร์สำหรับผู้บริโภค
  • ข้อกำหนดหน่วยความจำ: RAM ขั้นต่ำ 4GB, แนะนำ 8GB+
  • อินเทอร์เฟซ: อินเทอร์เฟซแชทบนเว็บที่ทันสมัย

🔮 สิ่งที่จะมาถึง

ทีมงาน iApp Technology กำลังพัฒนารุ่นใหม่ที่มีขนาดใหญ่ขึ้น ซึ่งจะสามารถตอบคำถามข้อเท็จจริงได้อย่างแม่นยำยิ่งขึ้น คาดว่าจะมีการเปิดตัวในเร็วๆ นี้และจะเข้ากันได้กับ OpenWebUI

📚 ทรัพยากรเพิ่มเติม

คำสั่งตั้งค่าด่วน

ไม่มี GPU:

# 1. รัน OpenWebUI พร้อม Ollama ในตัว
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

# 2. เปิดเบราว์เซอร์ไปที่ http://localhost:3000

# 3. ดาวน์โหลดโมเดล Chinda LLM (ผ่านเว็บอินเทอร์เฟซหรือคำสั่ง)
docker exec -it open-webui ollama pull iapp/chinda-qwen3-4b

มี GPU:

# 1. รัน OpenWebUI พร้อมการรองรับ GPU
docker run -d -p 3000:8080 --gpus all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

# 2. เปิดเบราว์เซอร์ไปที่ http://localhost:3000

# 3. ดาวน์โหลดโมเดล Chinda LLM
docker exec -it open-webui ollama pull iapp/chinda-qwen3-4b

ทางลัดแป้นพิมพ์ที่มีประโยชน์

  • Ctrl/Cmd + Enter: ส่งข้อความ
  • Ctrl/Cmd + N: การสนทนาใหม่
  • Ctrl/Cmd + K: โฟกัสการค้นหา
  • Esc: ยกเลิกการสร้างปัจจุบัน

คำสั่งจัดการ Docker

# ดูสถานะคอนเทนเนอร์
docker ps

# หยุด OpenWebUI
docker stop open-webui

# เริ่ม OpenWebUI
docker start open-webui

# รีสตาร์ท OpenWebUI
docker restart open-webui

# ดูล็อก
docker logs open-webui

# เข้าถึงเชลล์คอนเทนเนอร์
docker exec -it open-webui bash

# ตรวจสอบโมเดล Ollama ภายในคอนเทนเนอร์
docker exec -it open-webui ollama list

# อัปเดต OpenWebUI
docker pull ghcr.io/open-webui/open-webui:ollama
docker stop open-webui
docker rm open-webui
# จากนั้นรันคำสั่งติดตั้งอีกครั้ง

# สำรองข้อมูล volumes (สำคัญ!)
docker run --rm -v ollama:/source -v $(pwd):/backup alpine tar czf /backup/ollama-backup.tar.gz -C /source .
docker run --rm -v open-webui:/source -v $(pwd):/backup alpine tar czf /backup/openwebui-backup.tar.gz -C /source .

ลิงก์และแหล่งข้อมูล

🎉 สรุป

Chinda LLM 4B พร้อม OpenWebUI มอบการผสมผสานที่สมบูรณ์แบบของความสามารถ AI ภาษาไทยอันทรงพลังพร้อมอินเทอร์เฟซที่สวยงามและใช้งานง่าย การตั้งค่านี้ให้คุณ:

ประโยชน์หลัก:

  • 🎨 อินเทอร์เฟซที่สวยงาม - UI เว็บที่ทันสมัยคล้าย ChatGPT
  • 💾 ประวัติการสนทนา - ไม่สูญเสียแชทสำคัญของคุณ
  • 🔒 ความเป็นส่วนตัวสมบูรณ์ - ทุกอย่างทำงานภายในเครื่องบนเครื่องของคุณ
  • 🚀 ใช้งานง่าย - ไม่จำเป็นต้องมีความรู้เกี่ยวกับ Command-line
  • 🎛️ ปรับแต่งได้ - ปรับการตั้งค่าสำหรับกรณีการใช้งานต่างๆ
  • 📱 ข้ามแพลตฟอร์ม - ทำงานได้บนทุกอุปกรณ์ที่มีเว็บเบราว์เซอร์

เหมาะสำหรับ:

  • นักศึกษาและนักวิจัย ที่ต้องการประวัติการสนทนาที่เป็นระเบียบ
  • นักเขียนและผู้สร้างเนื้อหา ที่ต้องการแก้ไขไอเดีย
  • นักธุรกิจ ที่ต้องการความช่วยเหลือในการร่างเอกสาร
  • นักพัฒนา ที่ต้องการอินเทอร์เฟซที่ใช้งานง่ายสำหรับการรวม AI
  • ทุกคน ที่ชอบอินเทอร์เฟซเว็บมากกว่าเครื่องมือ Command-line

เริ่มใช้ Chinda LLM 4B กับ OpenWebUI วันนี้และสัมผัสกับอนาคตของ AI ภาษาไทยด้วยความสะดวกสบายของอินเทอร์เฟซเว็บที่ทันสมัย!


สร้างด้วย ❤️ โดยทีมงาน iApp Technology - เพื่อการพัฒนา AI ภาษาไทย