วิธีติดตั้งและรัน QwQ-32B บน Windows, macOS และ Linux แบบโลคัล

ลองนึกภาพว่ามีโมเดล AI ที่ทรงพลังทำงานอยู่บนคอมพิวเตอร์ของคุณเอง — ไม่มีการเรียกใช้ API ที่ไม่มีที่สิ้นสุด ไม่มีค่าใช้จ่ายในคลาวด์ และที่ดีที่สุดคือความเป็นส่วนตัวอย่างเต็มที่สำหรับข้อมูลที่ละเอียดอ่อนของคุณ ด้

Build APIs Faster & Together in Apidog

วิธีติดตั้งและรัน QwQ-32B บน Windows, macOS และ Linux แบบโลคัล

Start for free
Inhalte

ลองนึกภาพว่ามีโมเดล AI ที่ทรงพลังทำงานอยู่บนคอมพิวเตอร์ของคุณเอง — ไม่มีการเรียกใช้ API ที่ไม่มีที่สิ้นสุด ไม่มีค่าใช้จ่ายในคลาวด์ และที่ดีที่สุดคือความเป็นส่วนตัวอย่างเต็มที่สำหรับข้อมูลที่ละเอียดอ่อนของคุณ ด้วย QwQ-32B ของ Alibaba คุณสามารถนำ AI ระดับองค์กรมาสู่โต๊ะทำงานของคุณได้ ในคู่มือนี้ ฉันจะแนะนำวิธีติดตั้งและเรียกใช้ QwQ-32B ในเครื่องแบบโลคัลบน Windows, macOS และ Linux นอกจากนี้ ฉันจะแสดงให้คุณเห็นว่าขั้นตอนนั้นแทบจะเหมือนกันสำหรับโมเดลใดๆ ที่มีอยู่บน Ollama ทำให้มันมีความยืดหยุ่นสุดๆ หากคุณสนใจสำรวจไม่เพียงแต่ QwQ-32B แต่ยังรวมถึงโมเดลที่ทันสมัยอื่นๆ เช่น DeepSeek-R1, GPT-4o และ Clause 3.7 คุณสามารถตรวจสอบได้ที่ Anakin AI — ศูนย์รวมสำหรับทุกสิ่งที่เกี่ยวกับ AI

ทำไมต้องเรียกใช้ QwQ-32B ในเครื่อง?

ก่อนที่จะลงไปในรายละเอียด เรามาคุยกันอย่างรวดเร็วเกี่ยวกับเหตุผลที่คุณอาจต้องการเรียกใช้ QwQ-32B บนฮาร์ดแวร์ของคุณเอง:

  • ความเป็นส่วนตัว: เก็บข้อมูลทั้งหมดไว้บนคอมพิวเตอร์ของคุณ ไม่ต้องกังวลเกี่ยวกับการส่งข้อมูลที่ละเอียดอ่อนไปยังบริการคลาวด์
  • การประหยัดค่าใช้จ่าย: ด้วยการติดตั้งในเครื่อง คุณสามารถข้ามค่าใช้จ่ายในการเรียกใช้ API ที่เกิดซ้ำ QwQ-32B ทำงานเพียง $0.25 ต่อหนึ่งล้านโทเค็นเมื่อเปรียบเทียบกับค่าใช้จ่ายในคลาวด์ที่สูงกว่า
  • การปรับแต่ง: ปรับแต่งโมเดลด้วยชุดข้อมูลของคุณเองและปรับให้เหมาะกับความต้องการที่เป็นเอกลักษณ์ของคุณ
  • ความยืดหยุ่น: สลับระหว่างโมเดลต่างๆ — เช่น Llama 3, Mistol และอื่นๆ — โดยใช้กระบวนการที่เรียบง่ายเดียวกัน

การเรียกใช้ QwQ-32B ในเครื่องจะให้คุณควบคุมโมเดลได้อย่างเต็มที่ และกระบวนการติดตั้งค่อนข้างเป็นมิตรต่อผู้เริ่มต้น แม้ว่าคุณจะไม่เคยเปิด Terminal มาก่อน คุณก็สามารถทำให้มันทำงานได้ในประมาณ 10 นาที!


ข้อกำหนดทางฮาร์ดแวร์สำหรับ QwQ-32B

การเรียกใช้ QwQ-32B ในเครื่องต้องการฮาร์ดแวร์ที่แข็งแกร่งเพื่อให้การติดตั้งราบรื่นและการอนุมานมีประสิทธิภาพ ด้านล่างนี้คือข้อกำหนดขั้นต่ำสำหรับแต่ละแพลตฟอร์ม:

Mac

  • โปรเซสเซอร์: Apple Silicon — แนะนำให้ใช้ M1 Pro หรือ M1 Max เพื่อประสิทธิภาพที่ดีที่สุด
  • RAM: ขั้นต่ำ 24GB (เหมาะสำหรับบริบทที่ใหญ่ขึ้น: ระบบที่มีหน่วยความจำรวม 48GB+ จะมีประสิทธิภาพที่ดียิ่งขึ้น)
  • พื้นที่เก็บข้อมูล: มีพื้นที่ว่างเพียงพอในดิสก์ (แนะนำขั้นต่ำ 100GB สำหรับไฟล์โมเดลและข้อมูลเพิ่มเติม)

Windows

  • โปรเซสเซอร์: CPU หลายหลักสมัยใหม่ที่รองรับ AVX2/AVX512
  • GPU: สำหรับเวอร์ชันที่ทำควอนตัม: NVIDIA GeForce RTX 3060 (12GB VRAM) หรือสูงกว่า
  • สำหรับการอนุมานแบบความละเอียดเต็ม: แนะนำให้ใช้ NVIDIA RTX 4090 (24GB VRAM)
  • RAM: อย่างน้อย 32GB สำหรับการทำงานที่ราบรื่น
  • พื้นที่เก็บข้อมูล: มีพื้นที่ฟรีขั้นต่ำ 100GB สำหรับไฟล์โมเดลและทรัพยากรที่เกี่ยวข้อง

Linux

  • โปรเซสเซอร์: CPU หลายหลักที่รองรับ AVX2/AVX512 ชิป ARM ก็สามารถใช้ได้เช่นกัน
  • GPU: สำหรับเวอร์ชันที่ทำควอนตัม: NVIDIA RTX 3090 หรือ RTX 4090 (24GB VRAM) ก็เพียงพอ
  • สำหรับบริบทที่ใหญ่กว่าหรือการตั้งค่าความละเอียดสูงขึ้น GPU อย่าง NVIDIA A6000 แนะนำให้ใช้
  • RAM: ขั้นต่ำ 32GB
  • พื้นที่เก็บข้อมูล: ต้องมีพื้นที่ว่างอย่างน้อย 100GB สำหรับการเก็บโมเดล

วิธีติดตั้ง QwQ-32B บน Windows

วิธีติดตั้ง QwQ-32B บน Windows

ขั้นตอนที่ 1: ดาวน์โหลดและติดตั้ง Ollama

ขั้นตอนแรกคือการดาวน์โหลด Ollama — ซอฟต์แวร์ฟรีที่ทำให้การติดตั้ง AI ในเครื่องเป็นเรื่องง่าย นี่คือวิธีการ:

  1. ไปที่ ollama.com และคลิกที่ปุ่มดาวน์โหลดสำหรับ Windows
  2. เรียกใช้ไฟล์ .exe ที่ดาวน์โหลดมา โดยไม่ต้องใช้สิทธิ์ผู้ดูแลระบบ
  3. ทำตามคำแนะนำบนหน้าจอเพื่อติดตั้ง Ollama อาจจะขอให้คุณพิมพ์รหัสผ่านของคอมพิวเตอร์; นั่นเป็นเรื่องปกติ

ขั้นตอนที่ 2: เปิด Terminal

ถัดไป ให้เปิด Terminal บนเครื่อง Windows ของคุณ คุณสามารถทำได้โดยการค้นหา “Terminal” ในเมนูเริ่มของคุณ นี่อาจดูเหมือนเป็นเรื่องทางเทคนิค แต่ไม่ต้องกังวล — ทำตามขั้นตอนต่อไปได้เลย

ขั้นตอนที่ 3: ติดตั้งโมเดลที่คุณเลือก

เมื่อคุณติดตั้ง Ollama เรียบร้อยแล้ว ตอนนี้คุณสามารถติดตั้ง QwQ-32B เรียบร้อยแล้ว ใน Terminal ให้พิมพ์คำสั่ง:

ollama run qwq:32b-preview-fp16

คำสั่งนี้บอกให้ Ollama รันเวอร์ชันความละเอียดเต็ม (FP16) ของ QwQ-32B หากระบบของคุณมี VRAM น้อยกว่า คุณอาจเลือกใช้เวอร์ชันที่ทำควอนตัมแทน:

ollama run qwq:32b-preview-q4_K_M

เมื่อกด enter โมเดลจะเริ่มการติดตั้ง อาจใช้เวลาสักครู่ เมื่อติดตั้งเสร็จ คุณสามารถทดสอบได้โดยถามคำถามง่ายๆ เช่น:

> อันนี้เป็นผลรวมของ x² จาก 0 ถึง 5?

Terminal ควรจะแสดงคำตอบ ซึ่งยืนยันว่าโมเดลของคุณเริ่มทำงานแล้ว

วิธีติดตั้ง QwQ-32B บน macOS

วิธีติดตั้ง QwQ-32B บน macOS

ขั้นตอนที่ 1: การติดตั้ง Terminal ผ่าน Shell Script

ผู้ใช้ Mac โดยเฉพาะผู้ที่มี Apple Silicon จะมีกระบวนการที่คล้ายกัน เปิด Terminal และรัน:

https://ollama.com/install.sh

สคริปต์นี้จะติดตั้ง Ollama บน macOS ของคุณ ทำตามการแจ้งเตือนที่ปรากฏระหว่างการติดตั้ง

ขั้นตอนที่ 2: การจัดการหน่วยความจำ

สำหรับ Mac ที่มีหน่วยความจำมากขึ้น (48GB หรือมากกว่า) คุณอาจเลือกใช้เวอร์ชันที่ทำควอนตัม 5 บิต:

ollama run qwq:32b-preview-q5_1

เวอร์ชันนี้ถูกปรับให้เหมาะสมสำหรับเครื่องซึ่งมีการตั้งค่าหน่วยความจำรวมที่แข็งแกร่ง ใช้ Activity Monitor เพื่อติดตามการใช้งานหน่วยความจำของคุณระหว่างการอนุมาน

ขั้นตอนที่ 3: ทดสอบโมเดล

หลังจากติดตั้งแล้ว ทดสอบการตั้งค่าของคุณโดยพิมพ์คำถามใน Terminal:

> ชื่อของคุณคืออะไร?

คุณควรได้รับคำตอบจากโมเดล ซึ่งยืนยันว่าทุกอย่างทำงานตามที่คาดไว้

วิธีติดตั้ง QwQ-32B บน Linux

วิธีติดตั้ง QwQ-32B บน Linux


สำหรับผู้ใช้ Linux โดยเฉพาะผู้ที่ใช้ Ubuntu หรือ Debian นี่คือกระบวนการที่ตรงไปตรงมา:

ขั้นตอนที่ 1: อัปเดตและติดตั้ง Dependencies

เปิด Terminal ของคุณและรัน:

sudo apt update && sudo apt install -y curl nvidia-driver-535

คำสั่งนี้จะอัปเดตระบบของคุณและติดตั้งไดรเวอร์ NVIDIA ที่จำเป็น

ขั้นตอนที่ 2: ติดตั้ง Ollama

ถัดไป ติดตั้ง Ollama โดยรัน:

https://ollama.com/install.sh

ขั้นตอนที่ 3: เปิดใช้งานบริการ Ollama

เปิดใช้งานและเริ่มบริการ Ollama สำหรับผู้ใช้ของคุณด้วย:

systemctl — user enable ollama && systemctl — user start ollama

ขั้นตอนที่ 4: ตรวจสอบการเร่งความเร็ว GPU

เพื่อให้แน่ใจว่า GPU ของคุณถูกตั้งค่าอย่างถูกต้อง ให้พิมพ์:

nvidia-smi

คำสั่งนี้จะแสดงการใช้ GPU ของคุณ ซึ่งบ่งบอกว่าโมเดลจะมีทรัพยากรที่ต้องการ

ตัวเลือก: ตั้งค่าหน้าสำหรับเว็บด้วย Docker

หากคุณต้องการให้มีอินเตอร์เฟซกราฟิกคล้ายกับ ChatGPT แทนที่จะใช้บรรทัดคำสั่ง คุณสามารถตั้งค่าหน้าจอเว็บโดยใช้ Docker วิธีนี้มีความซับซ้อนทางเทคนิคมากขึ้นเล็กน้อยแต่ทำเพียงครั้งเดียว

ขั้นตอนที่ 1: ติดตั้ง Docker Desktop

ดาวน์โหลดและติดตั้ง Docker Desktop จากเว็บไซต์ของ Docker

ขั้นตอนที่ 2: เรียกใช้ Open WebUI Container

ใน Terminal ของคุณ รัน:

docker run -d -p 8080:8080 — gpus all -v ollama:/root/.ollama -v open-webui:/app/backend/data — name open-webui — restart always ghcr.io/open-webui/open-webui:main

คำสั่งนี้จะดึงคอนเทนเนอร์, ตั้งค่าการเข้าถึง GPU, และแมพโวลุ่มที่จำเป็น เมื่อเสร็จสิ้น ให้เปิดเว็บเบราว์เซอร์ของคุณและไปที่ http://localhost:8080 คุณจะเห็นอินเตอร์เฟซคล้าย ChatGPT ซึ่งคุณสามารถโต้ตอบกับโมเดลในเครื่องของคุณได้

ทางเลือกคลาวด์สำหรับฮาร์ดแวร์ที่มีข้อจำกัด

หากคอมพิวเตอร์ของคุณไม่ตรงตามสเปกที่กำหนด ให้พิจารณาทางเลือกคลาวด์ ตัวอย่างเช่น NodeShift ให้บริการ GPU:

  1. ลงทะเบียนที่ NodeShift และสร้างบัญชี
  2. เปิดใช้งาน GPU Instance ด้วย GPU A100 หรือ A6000
  3. ติดตั้ง QwQ-32B โดยใช้ Auto-Installer:
curl -sL nodeshift.com/qwq32b-install | bash

วิธีนี้จะตั้งค่า QwQ-32B บนคลาวด์อินสแตนซ์ ทำให้คุณข้ามข้อจำกัดด้านฮาร์ดแวร์ได้ในขณะที่ยังคงสามารถควบคุมได้เหมือนในเครื่อง

การปรับแต่งและปรับแต่ง

เมื่อโมเดลของคุณทำงานได้แล้ว คุณสามารถปรับแต่งให้ตรงกับความต้องการของคุณ ตัวอย่างเช่น คุณสามารถสร้างเวอร์ชันแบบกำหนดเองของ QwQ-32B ด้วยชุดข้อมูลของคุณเอง:

ollama create qwq-custom -f Modelfile

สำหรับคำแนะนำเพิ่มเติม คุณสามารถสำรวจ Hugging Face repository ของ Alibaba ซึ่งคุณจะพบการกำหนดค่าตัวอย่างและการมีส่วนร่วมของชุมชน

รวมทุกอย่างเข้าด้วยกัน

การเรียกใช้ QwQ-32B ในเครื่องมากกว่าการออกกำลังกายทางเทคนิค — มันเป็นช่องทางในการใช้ AI ระดับองค์กรบนฮาร์ดแวร์ของคุณเอง คู่มือนี้ได้กล่าวถึงพื้นฐานสำหรับ Windows, macOS และ Linux พร้อมกับเคล็ดลับในการตั้งค่าหน้าสำหรับเว็บและแม้กระทั่งทางเลือกคลาวด์สำหรับผู้ที่ไม่มีฮาร์ดแวร์ระดับสูง

ลองนึกภาพเสรีภาพที่จะสามารถรันโมเดล AI แบบออฟไลน์ วิเคราะห์เอกสารของคุณเองอย่างเป็นส่วนตัว และทดลองกับโมเดลต่างๆ ทั้งหมดจากเครื่องของคุณเอง นอกจากนี้ จำไว้ว่ากระบวนการที่เรียบง่ายเดียวกันนี้สามารถใช้ในการติดตั้งโมเดลใดๆ ที่มีอยู่ใน Ollama ไม่ว่าคุณจะทำงานกับ QwQ-32B, Llama 3, Mistol หรือโมเดลอื่นๆ ขั้นตอนได้รับการอนุมัติอย่างน่าอัศจรรย์

หากคุณตื่นเต้นที่จะลองทำสิ่งที่น่าตื่นเต้นเหล่านี้ อย่าลืมสำรวจ Anakin AI ด้วยการเข้าถึงโมเดลขั้นสูงทั้งหมด เช่น QwQ-32B, DeepSeek-R1, GPT-4o, Clause 3.7 และอื่นๆ Anakin AI เป็นศูนย์กลางที่ดีที่สุดสำหรับนวัตกรรม AI ที่ทันสมัย


คำพูดสุดท้าย: ยอมรับพลังของ AI ในเครื่อง

เมื่อเราเดินหน้าเข้าสู่ปี 2025 ภูมิทัศน์ของ AI กำลังพัฒนาอย่างรวดเร็ว การเรียกใช้โมเดลเช่น QwQ-32B ในเครื่องจะช่วยให้คุณได้รับความเป็นส่วนตัว การประหยัดต้นทุน และความเสรีในการสร้างสรรค์โดยไม่มีข้อจำกัด ไม่ว่าคุณจะเป็นนักพัฒนาที่มีประสบการณ์หรือเพิ่งเริ่มต้น การตั้งค่ากลยุทธ์ AI ในเครื่องของคุณเองจะเปิดโอกาสให้สร้างสรรค์ได้มากมาย

แล้วทำไมต้องรอ? ลุยเลย ทำตามคู่มือนี้และติดตั้ง QwQ-32B บนคอมพิวเตอร์ของคุณวันนี้ หากคุณต้องการสำรวจโมเดล AI ที่หลากหลายยิ่งขึ้น Anakin AI รออยู่ — ด้วยเครื่องมือที่ทรงพลังมากมายพร้อมที่จะเปลี่ยนความคิดของคุณให้กลายเป็นความจริง

ขอให้คุณได้ทดลองและขอให้อนาคตที่ AI ที่ก้าวหน้ามีให้ทุกคน — จากความสะดวกสบายในบ้านของคุณ!