การติดตั้ง Local LLM (DeepSeek) บนเครื่องสเปคต่ำ
สำหรับเครื่องคอมพิวเตอร์หรือโน๊ตบุ๊คสเปคต่ำที่ต้องการรันโมเดลภาษาใหญ่ (LLM) แบบ DeepSeek ในเครื่องท้องถิ่น (Local) มีหลายวิธีที่สามารถทำได้ โดยจะแบ่งเป็นวิธีสำหรับ Windows 10 และ Ubuntu ดังนี้
สำหรับ Windows 10
วิธีที่ 1: ใช้ LM Studio (วิธีง่ายที่สุดสำหรับผู้เริ่มต้น)
- ดาวน์โหลด LM Studio จากเว็บไซต์ทางการ https://lmstudio.ai/
- ติดตั้งโปรแกรมตามปกติ
- เปิดโปรแกรมและค้นหาโมเดล “DeepSeek” ในช่องค้นหา
- เลือกโมเดลขนาดเล็ก (เช่น deepseek-llm-7b หรือขนาดเล็กกว่า)
- คลิกดาวน์โหลดโมเดล
- หลังจากดาวน์โหลดเสร็จ ให้ไปที่แท็บ “Chat” และเลือกโมเดลที่ดาวน์โหลดมา
- เริ่มใช้งานได้ทันที
วิธีที่ 2: ใช้ Ollama (ต้องการความรู้พื้นฐานเล็กน้อย)
- ดาวน์โหลด Ollama จาก https://ollama.ai/
- ติดตั้งโปรแกรม
- เปิด Command Prompt หรือ PowerShell
- รันคำสั่งต่อไปนี้เพื่อดาวน์โหลดและรันโมเดล:
ollama pull deepseek/deepseek-llm:7b ollama run deepseek/deepseek-llm:7b
- หากต้องการโมเดลขนาดเล็กกว่า อาจลองหาโมเดลขนาด 1.3b หรือ 3b
วิธีที่ 3: ใช้ Text-generation-webui
- ติดตั้ง Python 3.10 จาก https://www.python.org/downloads/
- เปิด Command Prompt และรัน:
git clone https://github.com/oobabooga/text-generation-webui cd text-generation-webui pip install -r requirements.txt
- ดาวน์โหลดโมเดล DeepSeek ขนาดเล็ก (เช่น 1.3B หรือ 3B) จาก HuggingFace
- วางโมเดลในโฟลเดอร์
text-generation-webui/models
- รันเว็บ UI ด้วยคำสั่ง:
python server.py --auto-devices --model deepseek-llm-3b
- เปิดเบราว์เซอร์ที่ http://localhost:7860
สำหรับ Ubuntu
วิธีที่ 1: ใช้ Ollama
- เปิด Terminal
- ติดตั้ง Ollama ด้วยคำสั่ง:
curl -fsSL https://ollama.ai/install.sh | sh
- ดาวน์โหลดและรันโมเดล:
ollama pull deepseek/deepseek-llm:7b ollama run deepseek/deepseek-llm:7b
วิธีที่ 2: ใช้ Text-generation-webui
- ติดตั้ง dependencies ที่จำเป็น:
sudo apt update && sudo apt install -y python3 python3-pip git
- โคลน repository และติดตั้ง requirements:
git clone https://github.com/oobabooga/text-generation-webui cd text-generation-webui pip install -r requirements.txt
- ดาวน์โหลดโมเดล DeepSeek ขนาดเล็ก
- วางโมเดลในโฟลเดอร์
text-generation-webui/models
- รันเว็บ UI:
python server.py --auto-devices --model deepseek-llm-3b
วิธีที่ 3: ใช้ llama.cpp (เหมาะที่สุดสำหรับเครื่องสเปคต่ำ)
- ติดตั้ง dependencies:
sudo apt update && sudo apt install -y build-essential git
- โคลนและ build llama.cpp:
git clone https://github.com/ggerganov/llama.cpp cd llama.cpp make
- ดาวน์โหลดโมเดล DeepSeek ในรูปแบบ GGUF (เหมาะสำหรับเครื่องสเปคต่ำ)
- แปลงโมเดลเป็น GGUF (หากจำเป็น):
python convert.py /path/to/deepseek-model ./quantize /path/to/ggml-model-f16.gguf /path/to/ggml-model-q4_0.gguf q4_0
- รันโมเดล:
./main -m /path/to/ggml-model-q4_0.gguf -p "คำถามของคุณที่นี่"
ข้อแนะนำสำหรับเครื่องสเปคต่ำ
- ใช้โมเดลขนาดเล็ก (1.3B, 3B หรือ 7B พารามิเตอร์)
- ใช้ quantization (เช่น GGUF ในรูปแบบ q4_0 หรือ q5_0) เพื่อลดขนาดโมเดล
- ปิดโปรแกรมอื่นๆ ที่ไม่จำเป็นขณะรันโมเดล
- สำหรับ Windows อาจต้องลดการตั้งค่าใน BIOS เกี่ยวกับหน่วยความจำหากมีปัญหา
- พิจารณาใช้ API แทนการรันในเครื่องหากเครื่องมีสเปคต่ำมาก
หากต้องการประสิทธิภาพที่ดีที่สุดบนเครื่องสเปคต่ำ แนะนำให้ใช้ Ubuntu กับ llama.cpp และโมเดลที่ถูก quantize แล้วในรูปแบบ GGUF
Part 2:
เปรียบเทียบการใช้ DeepSeek แบบ Local LLM กับเว็บ chat.deepseek.com
ตารางเปรียบเทียบ
ด้านที่เปรียบเทียบ | Local LLM (ติดตั้งในเครื่อง) | เว็บ chat.deepseek.com |
---|---|---|
ความต้องการฮาร์ดแวร์ | ต้องการสเปคเครื่องสูง (RAM มาก, GPU จะดีมาก) | ใช้ได้แม้เครื่องสเปคต่ำมาก |
ความเร็ว | ช้ากว่า (ขึ้นกับสเปคเครื่อง) | เร็วกว่า (รันบนเซิร์ฟเวอร์ทรงพลัง) |
ความเป็นส่วนตัว | สูงมาก (ข้อมูลไม่ออกจากเครื่อง) | ต่ำ (ข้อมูลผ่านเซิร์ฟเวอร์ของ DeepSeek) |
ความสามารถของโมเดล | ใช้ได้เฉพาะโมเดลขนาดเล็ก (มักเป็นเวอร์ชันเก่า) | ใช้โมเดลขนาดใหญ่และอัปเดตล่าสุด |
ค่าใช้จ่าย | ฟรี (แต่ต้องมีฮาร์ดแวร์รองรับ) | ฟรี (ในปัจจุบัน) |
การเชื่อมต่ออินเทอร์เน็ต | ไม่จำเป็นหลังติดตั้งโมเดลแล้ว | จำเป็นต้องเชื่อมต่อตลอดเวลา |
ความยืดหยุ่น | สูง (ปรับแต่งโมเดล, ระบบได้ตามต้องการ) | ต่ำ (ใช้ได้ตามที่เว็บให้บริการ) |
ความเสถียร | ขึ้นกับสภาพเครื่องและซอฟต์แวร์ | สูง (ดูแลโดยทีม DeepSeek) |
ฟีเจอร์พิเศษ | ขึ้นกับซอฟต์แวร์ที่ใช้ (บางตัวมี plugin เพิ่ม) | มีฟีเจอร์ครบถ้วนตามที่เว็บออกแบบ |
การอัปเดตโมเดล | ต้องดาวน์โหลดและติดตั้งใหม่เอง | อัปเดตอัตโนมัติ |
ข้อจำกัดการใช้งาน | อาจมีปัญหาเรื่องความเร็วและหน่วยความจำ | อาจมีข้อจำกัดการใช้งานต่อวัน |
ข้อดี-ข้อเสียโดยสรุป
Local LLM (ติดตั้งในเครื่อง)
ข้อดี:
- ความเป็นส่วนตัวสูงสุด
- ใช้งานได้แม้ไม่มีอินเทอร์เน็ต
- สามารถปรับแต่งโมเดลและระบบได้
- ไม่มีข้อจำกัดการใช้งาน
ข้อเสีย:
- ต้องการทรัพยากรระบบสูง
- โมเดลมักไม่ใช่เวอร์ชันล่าสุด
- ความสามารถอาจจำกัดกว่า
- ต้องมีความรู้ทางเทคนิคบ้าง
เว็บ chat.deepseek.com
ข้อดี:
- ใช้งานง่าย ไม่ต้องติดตั้ง
- ได้ใช้โมเดลล่าสุดและทรงพลังที่สุด
- ไม่กินทรัพยากรเครื่อง
- มีการอัปเดตและปรับปรุงตลอดเวลา
ข้อเสีย:
- ต้องเชื่อมต่ออินเทอร์เน็ตตลอด
- ความเป็นส่วนตัวน้อยกว่า
- อาจมีข้อจำกัดการใช้งาน
- ไม่สามารถปรับแต่งระบบได้
คำแนะนำเพิ่มเติม
- หากต้องการ ความเป็นส่วนตัวสูง และยอมรับความเร็วที่ต่ำกว่า: เลือก Local LLM
- หากต้องการ ประสิทธิภาพสูงสุด และไม่กังวลเรื่องความเป็นส่วนตัว: ใช้เว็บ chat.deepseek.com
- สำหรับเครื่องสเปคต่ำมาก: แนะนำให้ใช้เว็บมากกว่า เพราะ Local LLM อาจทำงานได้ไม่ดี