Local Llm

การติดตั้ง Local LLM (DeepSeek) บนเครื่องสเปคต่ำ

สำหรับเครื่องคอมพิวเตอร์หรือโน๊ตบุ๊คสเปคต่ำที่ต้องการรันโมเดลภาษาใหญ่ (LLM) แบบ DeepSeek ในเครื่องท้องถิ่น (Local) มีหลายวิธีที่สามารถทำได้ โดยจะแบ่งเป็นวิธีสำหรับ Windows 10 และ Ubuntu ดังนี้

สำหรับ Windows 10

วิธีที่ 1: ใช้ LM Studio (วิธีง่ายที่สุดสำหรับผู้เริ่มต้น)

  1. ดาวน์โหลด LM Studio จากเว็บไซต์ทางการ https://lmstudio.ai/
  2. ติดตั้งโปรแกรมตามปกติ
  3. เปิดโปรแกรมและค้นหาโมเดล “DeepSeek” ในช่องค้นหา
  4. เลือกโมเดลขนาดเล็ก (เช่น deepseek-llm-7b หรือขนาดเล็กกว่า)
  5. คลิกดาวน์โหลดโมเดล
  6. หลังจากดาวน์โหลดเสร็จ ให้ไปที่แท็บ “Chat” และเลือกโมเดลที่ดาวน์โหลดมา
  7. เริ่มใช้งานได้ทันที

วิธีที่ 2: ใช้ Ollama (ต้องการความรู้พื้นฐานเล็กน้อย)

  1. ดาวน์โหลด Ollama จาก https://ollama.ai/
  2. ติดตั้งโปรแกรม
  3. เปิด Command Prompt หรือ PowerShell
  4. รันคำสั่งต่อไปนี้เพื่อดาวน์โหลดและรันโมเดล:
    ollama pull deepseek/deepseek-llm:7b
    ollama run deepseek/deepseek-llm:7b
    
  5. หากต้องการโมเดลขนาดเล็กกว่า อาจลองหาโมเดลขนาด 1.3b หรือ 3b

วิธีที่ 3: ใช้ Text-generation-webui

  1. ติดตั้ง Python 3.10 จาก https://www.python.org/downloads/
  2. เปิด Command Prompt และรัน:
    git clone https://github.com/oobabooga/text-generation-webui
    cd text-generation-webui
    pip install -r requirements.txt
    
  3. ดาวน์โหลดโมเดล DeepSeek ขนาดเล็ก (เช่น 1.3B หรือ 3B) จาก HuggingFace
  4. วางโมเดลในโฟลเดอร์ text-generation-webui/models
  5. รันเว็บ UI ด้วยคำสั่ง:
    python server.py --auto-devices --model deepseek-llm-3b
    
  6. เปิดเบราว์เซอร์ที่ http://localhost:7860

สำหรับ Ubuntu

วิธีที่ 1: ใช้ Ollama

  1. เปิด Terminal
  2. ติดตั้ง Ollama ด้วยคำสั่ง:
    curl -fsSL https://ollama.ai/install.sh | sh
    
  3. ดาวน์โหลดและรันโมเดล:
    ollama pull deepseek/deepseek-llm:7b
    ollama run deepseek/deepseek-llm:7b
    

วิธีที่ 2: ใช้ Text-generation-webui

  1. ติดตั้ง dependencies ที่จำเป็น:
    sudo apt update && sudo apt install -y python3 python3-pip git
    
  2. โคลน repository และติดตั้ง requirements:
    git clone https://github.com/oobabooga/text-generation-webui
    cd text-generation-webui
    pip install -r requirements.txt
    
  3. ดาวน์โหลดโมเดล DeepSeek ขนาดเล็ก
  4. วางโมเดลในโฟลเดอร์ text-generation-webui/models
  5. รันเว็บ UI:
    python server.py --auto-devices --model deepseek-llm-3b
    

วิธีที่ 3: ใช้ llama.cpp (เหมาะที่สุดสำหรับเครื่องสเปคต่ำ)

  1. ติดตั้ง dependencies:
    sudo apt update && sudo apt install -y build-essential git
    
  2. โคลนและ build llama.cpp:
    git clone https://github.com/ggerganov/llama.cpp
    cd llama.cpp
    make
    
  3. ดาวน์โหลดโมเดล DeepSeek ในรูปแบบ GGUF (เหมาะสำหรับเครื่องสเปคต่ำ)
  4. แปลงโมเดลเป็น GGUF (หากจำเป็น):
    python convert.py /path/to/deepseek-model
    ./quantize /path/to/ggml-model-f16.gguf /path/to/ggml-model-q4_0.gguf q4_0
    
  5. รันโมเดล:
    ./main -m /path/to/ggml-model-q4_0.gguf -p "คำถามของคุณที่นี่"
    

ข้อแนะนำสำหรับเครื่องสเปคต่ำ

  1. ใช้โมเดลขนาดเล็ก (1.3B, 3B หรือ 7B พารามิเตอร์)
  2. ใช้ quantization (เช่น GGUF ในรูปแบบ q4_0 หรือ q5_0) เพื่อลดขนาดโมเดล
  3. ปิดโปรแกรมอื่นๆ ที่ไม่จำเป็นขณะรันโมเดล
  4. สำหรับ Windows อาจต้องลดการตั้งค่าใน BIOS เกี่ยวกับหน่วยความจำหากมีปัญหา
  5. พิจารณาใช้ API แทนการรันในเครื่องหากเครื่องมีสเปคต่ำมาก

หากต้องการประสิทธิภาพที่ดีที่สุดบนเครื่องสเปคต่ำ แนะนำให้ใช้ Ubuntu กับ llama.cpp และโมเดลที่ถูก quantize แล้วในรูปแบบ GGUF

Part 2:

เปรียบเทียบการใช้ DeepSeek แบบ Local LLM กับเว็บ chat.deepseek.com

ตารางเปรียบเทียบ

ด้านที่เปรียบเทียบ Local LLM (ติดตั้งในเครื่อง) เว็บ chat.deepseek.com
ความต้องการฮาร์ดแวร์ ต้องการสเปคเครื่องสูง (RAM มาก, GPU จะดีมาก) ใช้ได้แม้เครื่องสเปคต่ำมาก
ความเร็ว ช้ากว่า (ขึ้นกับสเปคเครื่อง) เร็วกว่า (รันบนเซิร์ฟเวอร์ทรงพลัง)
ความเป็นส่วนตัว สูงมาก (ข้อมูลไม่ออกจากเครื่อง) ต่ำ (ข้อมูลผ่านเซิร์ฟเวอร์ของ DeepSeek)
ความสามารถของโมเดล ใช้ได้เฉพาะโมเดลขนาดเล็ก (มักเป็นเวอร์ชันเก่า) ใช้โมเดลขนาดใหญ่และอัปเดตล่าสุด
ค่าใช้จ่าย ฟรี (แต่ต้องมีฮาร์ดแวร์รองรับ) ฟรี (ในปัจจุบัน)
การเชื่อมต่ออินเทอร์เน็ต ไม่จำเป็นหลังติดตั้งโมเดลแล้ว จำเป็นต้องเชื่อมต่อตลอดเวลา
ความยืดหยุ่น สูง (ปรับแต่งโมเดล, ระบบได้ตามต้องการ) ต่ำ (ใช้ได้ตามที่เว็บให้บริการ)
ความเสถียร ขึ้นกับสภาพเครื่องและซอฟต์แวร์ สูง (ดูแลโดยทีม DeepSeek)
ฟีเจอร์พิเศษ ขึ้นกับซอฟต์แวร์ที่ใช้ (บางตัวมี plugin เพิ่ม) มีฟีเจอร์ครบถ้วนตามที่เว็บออกแบบ
การอัปเดตโมเดล ต้องดาวน์โหลดและติดตั้งใหม่เอง อัปเดตอัตโนมัติ
ข้อจำกัดการใช้งาน อาจมีปัญหาเรื่องความเร็วและหน่วยความจำ อาจมีข้อจำกัดการใช้งานต่อวัน

ข้อดี-ข้อเสียโดยสรุป

Local LLM (ติดตั้งในเครื่อง)

ข้อดี:

ข้อเสีย:

เว็บ chat.deepseek.com

ข้อดี:

ข้อเสีย:

คำแนะนำเพิ่มเติม

Related
Ubuntu · Windows · Etc