ในวันที่ 25 กุมภาพันธ์ 2025, Alibaba Cloud ได้สร้างความตื่นเต้นในอุตสาหกรรมด้วยการเปิดโค้ด Wan 2.1 ซึ่งเป็นโมเดลการสร้างวิดีโอ AI ขั้นสูงจากซีรีส์ Tongyi ที่ได้รับการยกย่อง โมเดลนวัตกรรมนี้แปลงข้อความให้เป็นวิดีโอที่น่าประทับใจ สามารถจัดการกับการเคลื่อนไหวที่ซับซ้อนและรายละเอียดเชิงพื้นที่ได้อย่างง่ายดาย ด้วยคะแนน VBench ที่โดดเด่น 84.7%, สนับสนุนหลายภาษา, และเข้าถึงได้ฟรี Wan 2.1 จึงเป็นคู่แข่งที่แข็งแกร่งในด้านที่รวมถึง Sora ของ OpenAI, Minimax, Kling จาก Kuaishou และ Veo 2 ของ Google
หากคุณต้องการข้ามความยุ่งยากในการติดตั้งและเริ่มสร้างวิดีโอทันที ลองดูที่ Anakin AI—แพลตฟอร์ม AI แบบครบวงจรที่ทำให้การใช้งาน Wan 2.1 เป็นเรื่องง่าย มิฉะนั้น คู่มือนี้จะแนะนำคุณเกี่ยวกับวิธีการใช้ WAN 2.1 กับ Comfy UI บน Mac, Windows, และ Linux โดยครอบคลุมการติดตั้ง การตั้งค่า และเทคนิคการสร้างวิดีโอขั้นสูง สนุกกับการสำรวจอนาคตของการสร้างวิดีโอ AI!

บทนำและการเตรียมระบบ
เมื่อคุณพร้อมที่จะดำดิ่งสู่ วิธีการใช้ WAN 2.1 กับ Comfy UI
ข้อกำหนดฮาร์ดแวร์
- ขั้นต่ำ:
- GPU: NVIDIA GTX 1080 (8GB VRAM) หรือ Apple M1
- RAM: 16GB DDR4
- Storage: พื้นที่ SSD ขนาด 15GB สำหรับโมเดลและการพึ่งพา
- แนะนำ:
- GPU: NVIDIA RTX 4090 (24GB VRAM) หรือ Apple M3 Max
- RAM: 32GB DDR5
- Storage: NVMe SSD ที่มีความจุอย่างน้อย 50GB
การพึ่งพาซอฟต์แวร์
- Python: เวอร์ชัน 3.10 ถึง 3.11 (3.11.6 ทำงานได้ดีที่สุดสำหรับ Apple Silicon)
- PyTorch: เวอร์ชัน 2.2+ พร้อม CUDA 12.1 (สำหรับ Windows/Linux) หรือ Metal support (สำหรับ macOS)
- FFmpeg: เวอร์ชัน 6.1 สำหรับการเข้ารหัส/ถอดรหัสวิดีโอ
- Drivers: NVIDIA Studio Drivers 550+ สำหรับ Windows/Linux
การติดตั้ง ComfyUI บนแพลตฟอร์มต่างๆ
ปฏิบัติตามขั้นตอนที่ละเอียดเหล่านี้เพื่อติดตั้ง ComfyUI ซึ่งเป็นส่วนสำคัญของ วิธีการใช้ WAN 2.1 กับ Comfy UI
การติดตั้ง Windows
วิธี A: ComfyUI Desktop (เบต้าทางการ)
- ดาวน์โหลด: ดาวน์โหลด
ComfyUI_Desktop_Windows_0.9.3b.exe
จาก comfyui.org/downloads. - เรียกใช้งาน Installer: รันตัวติดตั้งและตรวจสอบให้แน่ใจว่าการเร่งประสิทธิภาพ GPU NVIDIA เปิดอยู่
- ตรวจสอบ: เปิดพรอมต์คำสั่งแล้วรัน:
การตรวจสอบอย่างรวดเร็วนี้ยืนยันว่าทุกอย่างตั้งค่าเรียบร้อยแล้ว
วิธี B: การสร้างแบบแมนนวล
- โคลน Repository:bashCopy
https://github.com/comfyanonymous/ComfyUI
2. ติดตั้งสภาพแวดล้อมเสมือน:
3. ติดตั้ง PyTorch:
https://download.pytorch.org/whl/torch_stable.html
4. ติดตั้งข้อกำหนด:
pip install -r requirements.txt
การติดตั้ง macOS (M1/M2/M3)
- ติดตั้ง Homebrew (หากจำเป็น):
https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh
2. ติดตั้ง Python & FFmpeg:
brew install python@3.11 ffmpeg
3. โคลนและตั้งค่า ComfyUI:
https://github.com/comfyanonymous/ComfyUI
https://download.pytorch.org/whl/torch_stable.html
การติดตั้ง Linux (Native/WSL2)
สำหรับ WSL2:
- ติดตั้ง WSL2 ด้วย Ubuntu 22.04:
wsl --install -d Ubuntu-22.04
2. อัปเดตและอัปเกรด:
sudo apt update && sudo apt full-upgrade -y
การปรับใช้ ComfyUI:
- โคลน Repository:
https://github.com/comfyanonymous/ComfyUI
2. ตั้งค่าสภาพแวดล้อม Conda (แนะนำ):
3. ติดตั้ง PyTorch พร้อม CUDA:
https://download.pytorch.org/whl/torch_stable.html
4. ติดตั้งข้อกำหนด:
pip install -r requirements.txt
การรวมโมเดล WAN 2.1
เมื่อ ComfyUI ได้ถูกติดตั้งและทำงานแล้ว ขั้นตอนถัดไปใน วิธีการใช้ WAN 2.1 กับ Comfy UI คือการรวมโมเดล WAN 2.1
การเข้าถึงและตั้งค่าโมเดล
- ดาวน์โหลดน้ำหนัก:
wan_2.1_base.safetensors
(ประมาณ 8.4GB)wan_2.1_vae.pth
(ประมาณ 1.2GB)
ดาวน์โหลดไฟล์เหล่านี้โดยใช้วิธีที่คุณชื่นชอบ (เช่นwget
).- การวางไฟล์:
- วาง
wan_2.1_base.safetensors
ในComfyUI/models/checkpoints/
- วาง
wan_2.1_vae.pth
ในComfyUI/models/vae/
การติดตั้ง Custom Nodes
ปรับปรุงการทำงานของคุณโดยการติดตั้ง custom nodes:
- ไปที่ไดเรกทอรี Custom Nodes
cd ComfyUI/custom_nodes
- โคลนส่วนเสริมที่จำเป็น:
git clone https://github.com/WASasquatch/was-node-suite-comfyui git clone https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite
nodes เหล่านี้มีฟีเจอร์ที่มีประโยชน์ เช่น การแทรกกรอบวิดีโอและการประมวลผลเป็นชุด
การตั้งค่ากระบวนการทำงานของคุณสำหรับ WAN 2.1
การสร้างท่อที่เหมาะสมเป็นกุญแจสำคัญเมื่อเรียนรู้ วิธีการใช้ WAN 2.1 กับ Comfy UI
การตั้งค่าท่อจากข้อความเป็นวิดีโอ
นี่คือโครงสร้างท่อที่ง่ายขึ้น:
- โหลด Checkpoint Node: โหลดน้ำหนักโมเดล WAN 2.1 ของคุณ
- CLIPTextEncode Node: แปลงข้อความสั่งการ (เช่น “มังกรไซเบอร์ที่บินอยู่ในเมฆเนบิวลา”) ให้เป็นข้อมูลการควบคุม
- WANSampler Node: จำลองพื้นที่แฝงด้วยพารามิเตอร์เช่น:
ความละเอียด: 1024×576 เฟรม
เฟรม: 48 (ปรับเปลี่ยนได้ตามความต้องการ)
ระดับการเคลื่อนไหว: โดยทั่วไปอยู่ระหว่าง 1.2 ถึง 2.5 เพื่อให้การเปลี่ยนแปลงราบรื่น
- VAEDecode Node: ถอดรหัสข้อมูลแฝงเพื่อให้เป็นผลลัพธ์วิดีโอสุดท้าย
การปรับพารามิเตอร์ & การเพิ่มประสิทธิภาพ
- ระดับการเคลื่อนไหว: ผู้ใช้หลายคนชอบประมาณ 1.8 เพื่อรักษาความสมดุลระหว่างการเปลี่ยนแปลงที่ราบรื่นกับความสม่ำเสมอ
- ความสนใจชั่วคราว: มุ่งเป้าไปที่การตั้งค่าระหว่าง 0.85 ถึง 0.97 เพื่อรักษาเสถียรภาพการเคลื่อนไหวระยะยาว
- กำหนดเวลาเสียงรบกวน & การแทรกเฟรม: ตัวเลือกเช่น Karras และ FilmNet ช่วยลดอาร์ติแฟคที่ไม่ต้องการ
- การป้อนข้อมูลแบบผสม: รวมภาพอ้างอิงและแผนที่ความลึกเพื่อปรับปรุงการถ่ายโสดสไตล์และแนะนำเอฟเฟกต์ 3D
เทคนิคการสร้างวิดีโอขั้นสูง
ทำให้โครงการของคุณก้าวไปอีกขั้นด้วยเคล็ดลับขั้นสูงเหล่านี้:
การอ้างอิงหลายภาพ
- การถ่ายโสดสไตล์: ใช้หลายภาพอ้างอิงเพื่อเปลี่ยนแปลงสไตล์ศิลปะ
- การควบคุมแผนที่ความลึก: นำแผนที่ความลึกเข้ามาเพื่อสร้างความรู้สึกแบบสามมิติเทียม
- ControlNet & การประเมินท่าทาง: นำทางโมเดลโดยใช้ท่าทางของมนุษย์หรือตำแหน่งวัตถุเพื่อผลลัพธ์ที่ได้ถูกต้องมากขึ้น
การจำลองการเคลื่อนไหวของกล้อง
จำลองการเคลื่อนไหวของกล้องที่มีชีวิตด้วย CameraController
node:
- ความเร็วในการโคจร: เช่น 0.12
- Dolly Zoom: เช่น -0.05
- ความแปรปรวนของการหมุน: เช่น 2.7
การปรับเหล่านี้ทำให้วิดีโอของคุณมีความน่าสนใจแบบภาพยนตร์
การเพิ่มประสิทธิภาพและการแก้ไขปัญหา
เทคนิคการจัดการ VRAM
ทำให้ระบบของคุณทำงานอย่างมีประสิทธิภาพ:
- การเก็บเฟรม: เปิดใช้งานโดยการตั้งค่า
enable_offload_technique = True
และเลือกการเพิ่มประสิทธิภาพ VRAM ที่เข้มข้น - ความแม่นยำผสมน: เพิ่มประสิทธิภาพด้วย:
torch.set_float32_matmul_precision('medium')
การแก้ไขปัญหาที่พบบ่อย
- ผลลัพธ์เฟรมดำ: ตรวจสอบว่าไฟล์ VAE ของคุณ (
wan_2.1_vae.pth
) ตรงกับเวอร์ชันของโมเดลและตรวจสอบการตั้งค่าความสนใจชั่วคราวของคุณ - VRAM ล้น: รัน ComfyUI ด้วย
--medvram
และ--xformers
flags - การวิเคราะห์ล็อก: ตรวจสอบ
comfy.log
สำหรับข้อความ ERROR หรือ CRITICAL ใดๆ เพื่อระบุปัญหาอย่างรวดเร็ว
ความแตกต่างในการติดตั้งเฉพาะแพลตฟอร์ม
นี่คือการสรุปความแตกต่างหลักระหว่างการติดตั้ง ComfyUI บน Windows, macOS และ Linux—สิ่งสำคัญที่จะต้องเข้าใจเมื่อพิจารณา วิธีการใช้ WAN 2.1 กับ Comfy UI:
Windows
- วิธีการดั้งเดิม:
- รวมถึงการแตกไฟล์ ZIP แบบพกพา การตั้งค่าซอฟต์แวร์ Python ด้วยตนเอง และการรันไฟล์แบทช์ (เช่น การรัน
run_nvidia_gpu.bat
) - จำเป็นต้องติดตั้ง 7-Zip แยกต่างหากและการกำหนดค่า CUDA toolkit ด้วยตนเอง
- แอพเดสก์ท็อป V1:
- ตัวติดตั้งแบบคลิกเดียว (ประมาณ 200MB) ที่ทำการแก้ไขความ зависимостьido ได้อัตโนมัติ
macOS
- วิธีการดั้งเดิม:
- ใช้ Homebrew ในการติดตั้งแพ็คหลักและต้องการการกำหนดค่า Python/MPS ด้วยตนเอง
- เริ่มต้นผ่าน Terminal และ Python 3.11+ เป็นสิ่งจำเป็นในการปรับให้เหมาะสมกับ Apple Silicon
- แอพเดสก์ท็อป V1:
- มาในรูปแบบแพ็คเกจ .dmg ที่เป็นสากล พร้อมกับสภาพแวดล้อม Python ที่รวมอยู่ ทำให้การติดตั้งง่ายขึ้นมาก
Linux
- วิธีการดั้งเดิม:
- พึ่งพาการโคลนแบบเทอร์มินัล การจัดการด้วย conda หรือ pip และการติดตั้งไดรเวอร์ NVIDIA/AMD ด้วยตนเอง
- อาจต้องการการปรับแก้เพิ่มเติมสำหรับนโยบาย AppArmor/SELinux
- แอพเดสก์ท็อป V1:
- มีไบนารีที่ลงนามด้วยโค้ด (ผ่าน AppImage/DEB) ที่ทำให้การจัดการความ зависимостьido และการอัปเดตได้สะดวกสบายขึ้น
แอพเดสก์ท็อป V1 ช่วยลดความยุ่งยากในการติดตั้งลงได้อย่างมาก โดยมีระบบการแก้ไขความ зависимостьido อัตโนมัติและห้องสมุดโมเดลที่ใช้ร่วมกันในทุกแพลตฟอร์ม
ความคิดสุดท้าย
โดยสรุป คู่มือนี้ได้แนะนำคุณเกี่ยวกับ วิธีการใช้ WAN 2.1 กับ Comfy UI—ตั้งแต่การเตรียมระบบของคุณไปจนถึงการใช้เทคนิคการสร้างวิดีโอขั้นสูง ไม่ว่าคุณจะใช้ Windows, macOS หรือ Linux ตอนนี้คุณพร้อมที่จะตั้งค่า ปรับแต่ง และเพิ่มประสิทธิภาพการทำงานของวิดีโอ AI ของคุณเหมือนมืออาชีพ
ดังนั้น จัดการระบบของคุณ แล้วลองทำดูและสนุกกับการสร้างสรรค์ ขอให้สนุกกับการสร้างวิดีโอ และขอให้โครงการของคุณเติบโตไปสู่ความสำเร็จที่สูงขึ้น!