วิธีการรัน Deep Seek แบบโลคัลด้วย Ollama

ในภูมิทัศน์ที่พัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์ การมีความสามารถในการรันโมเดลภาษาอันทรงพลังในเครื่องของคุณเองมีให้ความเป็นส่วนตัว การควบคุม และความยืดหยุ่นที่ไม่มีใครเปรียบเทียบได้ DeepSeek-R1 ซึ่งเป็นโมเดลภาษาล้ำสมัยที่พัฒนาโดย DeepSeek ได้รับความสนใจอย่างมากจากประสิทธิภาพที่น่าประทั

Build APIs Faster & Together in Apidog

วิธีการรัน Deep Seek แบบโลคัลด้วย Ollama

Start for free
Inhalte

ในภูมิทัศน์ที่พัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์ การมีความสามารถในการรันโมเดลภาษาอันทรงพลังในเครื่องของคุณเองมีให้ความเป็นส่วนตัว การควบคุม และความยืดหยุ่นที่ไม่มีใครเปรียบเทียบได้ DeepSeek-R1 ซึ่งเป็นโมเดลภาษาล้ำสมัยที่พัฒนาโดย DeepSeek ได้รับความสนใจอย่างมากจากประสิทธิภาพที่น่าประทับใจในงานการให้เหตุผล คณิตศาสตร์ และการเขียนโค้ด—เปรียบเทียบได้แม้กระทั่งกับโมเดลที่มีสิทธิ์เฉพาะของ OpenAI คู่มือนี้จะพาคุณไปทำความเข้าใจกระบวนการรัน DeepSeek-R1 ในเครื่องของคุณโดยใช้ Ollama ซึ่งเป็นแพลตฟอร์มที่ใช้งานง่ายออกแบบมาเพื่อลดความซับซ้อนในการใช้งานโมเดลภาษาใหญ่ในคอมพิวเตอร์ส่วนบุคคล

เข้าใจ DeepSeek-R1

DeepSeek-R1 เป็นโมเดลแรกในซีรีย์โมเดลการให้เหตุผลของ DeepSeek ออกแบบให้สามารถแข่งขันกับโมเดลการค้าชั้นนำอย่าง OpenAI's o1 จุดเด่นของ DeepSeek-R1 คือมีขนาดที่แตกต่างกัน ตั้งแต่รุ่นที่เล็กลงไปจนถึงโมเดลขนาดเต็ม 671B พารามิเตอร์ทำให้เข้าถึงได้ในฮาร์ดแวร์ที่แตกต่างกัน โมเดลเหล่านี้มีใบอนุญาตภายใต้ MIT โดยให้ใช้งานทั้งสำหรับส่วนบุคคลและเชิงพาณิชย์

ทีม DeepSeek ได้แสดงให้เห็นว่าความสามารถในการให้เหตุผลของโมเดลที่ใหญ่ที่สุดของพวกเขาสามารถลดขนาดให้เป็นโมเดลที่เล็กกว่าและจัดการได้ง่ายขึ้น นั่นหมายความว่าแม้คุณจะไม่มีฮาร์ดแวร์ระดับองค์กร คุณยังสามารถได้รับประโยชน์จากความสามารถของ AI ขั้นสูงในชุดขนาดเล็กได้

ทำไมต้อง Ollama?

Ollama ได้กลายเป็นหนึ่งในโซลูชันที่ได้รับความนิยมมากที่สุดสำหรับการรันโมเดลภาษาใหญ่ในเครื่องเพราะ:

  • ทำให้การติดตั้งและการจัดการโมเดล AI ที่ซับซ้อนง่ายขึ้น
  • จัดการการดาวน์โหลดและการเริ่มต้นโมเดลโดยอัตโนมัติ
  • เพิ่มประสิทธิภาพโมเดลให้เหมาะสมกับฮาร์ดแวร์ของคุณ
  • ให้ส่วนติดต่อผู้ใช้ที่ใช้งานง่ายสำหรับการโต้ตอบกับโมเดล
  • รองรับโมเดลที่หลากหลายไม่ใช่เพียงแค่ DeepSeek

ข้อกำหนดของระบบ

ก่อนเริ่มต้น คุณควรเข้าใจว่าการรันโมเดล AI ในเครื่องต้องการทรัพยากรการประมวลผลที่มาก ข้อกำหนดจะแตกต่างกันไป ขึ้นอยู่กับว่าโมเดล DeepSeek-R1 รุ่นไหนที่คุณวางแผนจะใช้:

  • สำหรับโมเดลขนาดเล็ก (1.5B, 7B, หรือ 8B): CPU รุ่นใหม่ที่มี RAM อย่างน้อย 16GB และแนะนำให้มี GPU ที่ดีที่มี VRAM 8GB+
  • สำหรับโมเดลขนาดกลาง (14B, 32B): แนะนำ GPU ที่มี VRAM 16-24GB
  • สำหรับโมเดลขนาดใหญ่ (70B): GPU ที่มีราคาแพงที่มี VRAM 40GB+ หรือหลาย GPU
  • สำหรับโมเดลเต็ม 671B: ฮาร์ดแวร์ระดับองค์กรที่มี GPU ที่มีประสิทธิภาพหลายตัว

การสนับสนุนระบบปฏิบัติการรวมถึง macOS, Linux และ Windows

คู่มือการติดตั้งแบบทีละขั้นตอน

ขั้นตอน 1: ติดตั้ง Ollama

ขั้นแรก มาติดตั้ง Ollama บนระบบของคุณกันเถอะ

สำหรับ macOS และ Linux:

curl -fsSL https://ollama.com/install.sh | sh

สำหรับ Windows:
ดาวน์โหลดตัวติดตั้งจาก เว็บไซต์ทางการของ Ollama และทำตามวิซาร์ดการติดตั้ง

หลังจากติดตั้งเสร็จแล้ว ให้ตรวจสอบว่า Ollama ทำงานได้ปกติ:

ollama --version

ขั้นตอน 2: ดาวน์โหลดและรัน DeepSeek-R1

เมื่อ Ollama ติดตั้งเสร็จแล้ว คุณสามารถดาวน์โหลดและรัน DeepSeek-R1 ด้วยคำสั่งเดียว เลือกรุ่นขนาดโมเดลที่เหมาะสมตามความสามารถของฮาร์ดแวร์ของคุณ:

สำหรับระบบระดับเริ่มต้น (รุ่น 1.5B, ดาวน์โหลด 1.1GB):

ollama run deepseek-r1:1.5b

สำหรับระบบระดับกลาง (รุ่น 7B, ดาวน์โหลด 4.7GB):

ollama run deepseek-r1:7b

สำหรับระบบที่ดีกว่า (รุ่น 8B ที่ใช้ Llama, ดาวน์โหลด 4.9GB):

ollama run deepseek-r1:8b

สำหรับระบบที่มีประสิทธิภาพสูง (รุ่น 14B, ดาวน์โหลด 9.0GB):

ollama run deepseek-r1:14b

สำหรับระบบที่มีพลังมาก (รุ่น 32B, ดาวน์โหลด 20GB):

ollama run deepseek-r1:32b

สำหรับฮาร์ดแวร์ระดับองค์กร (รุ่น 70B, ดาวน์โหลด 43GB):

ollama run deepseek-r1:70b

สำหรับคลัสเตอร์การวิจัย (โมเดลเต็ม 671B, ดาวน์โหลด 404GB):

ollama run deepseek-r1:671b

เมื่อคุณรันคำสั่งเหล่านี้เป็นครั้งแรก Ollama จะดาวน์โหลดและติดตั้งโมเดลโดยอัตโนมัติ ซึ่งอาจใช้เวลาสักครู่ขึ้นอยู่กับการเชื่อมต่ออินเทอร์เน็ตและขนาดของโมเดล

ขั้นตอน 3: ปฏิสัมพันธ์กับ DeepSeek-R1

เมื่อโมเดลโหลดเสร็จ คุณจะได้รับหน้าต่างคำสั่งที่สามารถเริ่มต้นโต้ตอบกับ DeepSeek-R1 ได้ เพียงพิมพ์คำถามของคุณและกด Enter

>>> ความแตกต่างหลักระหว่างการเรียนรู้แบบมีผู้ดูแลและไม่มีผู้ดูแลคืออะไร?

DeepSeek-R1 จะประมวลผลคำถามของคุณและให้คำตอบตามการฝึกอบรมของมัน

ขั้นตอน 4: การใช้งานขั้นสูง

Ollama มีฟีเจอร์ขั้นสูงหลายรายการที่สามารถเพิ่มประสบการณ์ของคุณกับ DeepSeek-R1:

พารามิเตอร์ที่กำหนดเอง:

ollama run deepseek-r1:8b --temperature 0.7 --top-p 0.9

การใช้ API:
Ollama ยังมี HTTP API ที่ให้คุณรวมโมเดลเข้ากับแอปพลิเคชันของคุณ:

curl -X POST http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:8b",
  "prompt": "อธิบายการคำนวณควอนตัมในแบบง่าย",
  "stream": false
}'

การใช้ Anakin AI: ตัวเลือกที่ทรงพลัง

สร้างเวิร์กโฟลว์ที่เป็นตัวแทน AI โดยง่ายด้วย Anakin AI!
สร้างเวิร์กโฟลว์ที่เป็นตัวแทน AI โดยง่ายด้วย Anakin AI

แม้ว่าการรันโมเดลในเครื่องด้วย Ollama จะให้การควบคุมและความเป็นส่วนตัวที่ยอดเยี่ยม แต่ยังต้องการทรัพยากรการประมวลผลที่สำคัญและการตั้งค่าทางเทคนิค สำหรับผู้ใช้หลายคน โดยเฉพาะผู้ที่ไม่มีฮาร์ดแวร์ทรงพลัง Anakin AI มอบทางเลือกที่ยอดเยี่ยมที่ช่วยให้คุณได้สัมผัสกับ DeepSeek และโมเดลทรงพลังอื่น ๆ โดยไม่ต้องเผชิญกับความซับซ้อนของการติดตั้งในเครื่อง

Anakin AI คือแพลตฟอร์มแบบครบวงจรที่มี:

  1. การเข้าถึงทันที: ใช้ DeepSeek และโมเดลทรงพลังอื่น ๆ ได้โดยตรงในเบราว์เซอร์ของคุณโดยไม่ต้องดาวน์โหลดหรือติดตั้งอะไร
  2. ส่วนติดต่อผู้ใช้ที่ใช้งานง่าย: ส่วนติดต่อการสนทนาที่สะอาดและใช้งานง่ายทำให้การโต้ตอบกับโมเดล AI เป็นเรื่องง่ายและตรงไปตรงมา
  3. การสนับสนุนโมเดลหลายรุ่น: เข้าถึงไม่เพียงแต่ DeepSeek แต่ยังมีโมเดลอื่น ๆ มากมายเช่น Llama, Mistral, Dolphin และอีกมากมายที่เป็น LLM แบบโอเพ่นซอร์ส
  4. ไม่มีข้อจำกัดด้านฮาร์ดแวร์: รันการสนทนากับโมเดลขนาดใหญ่ได้แม้ในฮาร์ดแวร์ที่ไม่สูงนักเช่นโน้ตบุ๊กหรือแท็บเล็ต
  5. การสนทนาถาวร: การสนทนาทั้งหมดของคุณจะถูกบันทึกและจัดระเบียบ ทำให้ง่ายต่อการอ้างอิงการโต้ตอบในอดีต
  6. ฟีเจอร์ขั้นสูง: สร้างแอปพลิเคชัน AI ผสานเข้ากับข้อมูลของคุณ และสร้างเวิร์กโฟลว์ที่กำหนดเอง

ในการเริ่มต้นใช้งาน Anakin AI เพียง:

  1. เยี่ยมชม https://anakin.ai
  2. สร้างบัญชีหรือเข้าสู่ระบบ
  3. เลือก DeepSeek จากโมเดลที่มี
  4. เริ่มสนทนาได้ทันทีโดยไม่ต้องตั้งค่า

แนวทางนี้มีประโยชน์โดยเฉพาะสำหรับ:

  • ผู้ใช้ที่มีทรัพยากรฮาร์ดแวร์จำกัด
  • ผู้ที่ต้องการเข้าถึงอย่างรวดเร็วโดยไม่ต้องตั้งค่าทางเทคนิค
  • ทีมที่ต้องการทำงานร่วมกันโดยใช้โครงสร้างพื้นฐาน AI เดียวกัน
  • นักพัฒนาที่ทดสอบโมเดลต่าง ๆ ก่อนทำการติดตั้งในเครื่อง

เคล็ดลับการเพิ่มประสิทธิภาพการทำงาน

หากคุณกำลังรัน DeepSeek ในเครื่องด้วย Ollama นี่คือเคล็ดลับเพื่อเพิ่มประสิทธิภาพการทำงาน:

  1. การเร่งความเร็ว GPU: ตรวจสอบให้แน่ใจว่าไดรเวอร์ GPU ของคุณอัปเดตและกำหนดค่าอย่างถูกต้องเพื่อให้ได้ประสิทธิภาพสูงสุด
  2. การจัดการหน่วยความจำ: ปิดแอปพลิเคชันที่ไม่จำเป็นเมื่อรันโมเดลที่ใหญ่กว่าเพื่อเปิดพื้นที่ทรัพยากรในระบบ
  3. การค่อยๆ ลดขนาด: Ollama จะทำการลดขนาดหน่วยความจำโดยอัตโนมัติ แต่คุณสามารถทดลองใช้การตั้งค่าการลดขนาดที่แตกต่างกันตามความจำเป็นของคุณ
  4. การจัดการหน้าต่างบริบท: ควรคำนึงถึงความยาวของข้อความและคำตอบของคุณ เพราะการสนทนาที่ยาวเกินไปอาจใช้หน่วยความจำมากขึ้นและทำให้การตอบกลับช้าลง
  5. การระบายความร้อน: การรันโมเดล AI อาจใช้กระบวนการที่ใช้คอมพิวเตอร์อย่างเข้มข้นและสร้างความร้อน ตรวจสอบให้แน่ใจว่าระบบของคุณมีการระบายความร้อนที่เหมาะสมเพื่อป้องกันการลดประสิทธิภาพด้วยความร้อนเกิดขึ้น

การพัฒนาแอปพลิเคชันด้วย DeepSeek-R1

นอกจากการสนทนาง่ายๆ แล้ว DeepSeek-R1 ยังสามารถรวมเข้ากับแอปพลิเคชันต่างๆ ได้:

การสร้างและวิเคราะห์โค้ด:
DeepSeek-R1 ชำนาญในงานที่เกี่ยวกับโค้ด ทำให้มีคุณค่าสำหรับนักพัฒนาที่ต้องการ:

  • สร้างโค้ดสั่งพิมพ์ตามความต้องการ
  • แก้ไขข้อผิดพลาดในโค้ดที่มีอยู่
  • เพิ่มประสิทธิภาพอัลกอริธึม
  • แปลระหว่างภาษาโปรแกรม

การวิจัยและการวิเคราะห์:
ความสามารถในการให้เหตุผลของโมเดลทำให้เหมาะสำหรับ:

  • สรุปเอกสารวิจัย
  • วิเคราะห์แนวโน้มข้อมูล
  • สร้างสมมติฐาน
  • สร้างรายงานที่มีโครงสร้าง

การสร้างเนื้อหา:
ใช้ DeepSeek-R1 ในการ:

  • เขียนและแก้ไขบทความ
  • สร้างเนื้อหาการตลาด
  • สร้างเนื้อหาสร้างสรรค์
  • แปลระหว่างภาษาต่างๆ

บทสรุป

การรัน DeepSeek-R1 ในเครื่องด้วย Ollama เป็นก้าวสำคัญในการทำให้การเข้าถึงโมเดล AI อันทรงพลังเป็นไปได้ นี่จะให้การควบคุมข้อมูลและการโต้ตอบทั้งหมดของคุณ ในขณะเดียวกันก็ใช้ความสามารถในการประมวลผลภาษาที่ทันสมัยตามสภาพทรัพยากรฮาร์ดแวร์และความสะดวกสบายทางเทคนิคของคุณ คุณสามารถเลือกที่จะรันโมเดลในเครื่องผ่าน Ollama หรือติดต่อไปยังแพลตฟอร์มที่ใช้งานง่ายเช่น Anakin AI

เมื่อเทคโนโลยี AI ยังคงพัฒนา ความสามารถในการรันโมเดลเหล่านี้ในเครื่องจะมีความสำคัญมากขึ้นสำหรับบุคคลที่ใส่ใจในเรื่องความเป็นส่วนตัว นักพัฒนาที่ทำงานกับข้อมูลที่ละเอียดอ่อน และองค์กรที่กำลังมองหาการสร้างแอปพลิเคชันเฉพาะที่ไม่ต้องพึ่งพา API ของบุคคลที่สาม

ไม่ว่าคุณจะเป็นนักพัฒนาที่สร้างแอปพลิเคชันที่มีประสิทธิภาพจาก AI รุ่นถัดไป นักวิจัยที่สำรวจความสามารถของโมเดลภาษาใหญ่ หรือเพียงแค่คนที่สนใจใน AI ที่ทันสมัย DeepSeek-R1 กับ Ollama มอบโซลูชันที่ทรงพลังและยืดหยุ่นซึ่งให้ความสามารถในการใช้ AI ขั้นสูงอยู่ในมือของคุณ

ด้วยการตั้งค่าและทรัพยากรที่เหมาะสม คุณสามารถใช้พลังของ DeepSeek-R1 สำหรับทุกอย่างตั้งแต่การสร้างข้อความง่าย ๆ ไปจนถึงงานการให้เหตุผลที่ซับซ้อน ขณะเดียวกันยังเก็บความควบคุมข้อมูลและทรัพยากรการประมวลผลของคุณไว้ในมือของคุณ และสำหรับช่วงเวลาที่การประมวลผลในเครื่องไม่ใช่วิธีที่สะดวก อย่าลืมว่าโซลูชันอย่าง Anakin AI มีทางเลือกที่สะดวกหยิบมือเข้าไว้ในการเข้าถึงพลังของโมเดล AI ขั้นสูง