2025년 2월 25일, 알리바바 클라우드는 유명한 통의 시리즈의 고급 AI 비디오 생성 모델인 Wan 2.1을 오픈 소싱하여 업계를 떠들썩하게 했습니다. 이 혁신적인 모델은 텍스트 프롬프트를 시각적으로 인상적인 비디오로 변환하며, 복잡한 움직임과 공간적 세부 사항을 손쉽게 처리합니다. 84.7%라는 뛰어난 VBench 점수, 다국어 지원 및 무료 액세스 덕분에 Wan 2.1은 OpenAI의 Sora, Minimax, Kuaishou의 Kling 및 Google의 Veo 2를 포함한 분야에서 이미 강력한 경쟁자입니다.
설정 번거로움을 피하고 즉시 비디오 생성을 시작하고 싶다면 Anakin AI를 확인해 보세요. Wan 2.1을 손쉽게 사용할 수 있는 올인원 AI 플랫폼입니다. 그렇지 않다면 이 가이드는 Mac, Windows 및 Linux에서 Comfy UI와 함께 WAN 2.1을 사용하는 방법을 안내하며, 설치, 구성 및 고급 비디오 생성 기술을 다룹니다. AI 비디오 생성의 미래를 탐험하는 즐거움을 누리세요!

소개 및 시스템 준비
Comfy UI와 함께 WAN 2.1을 사용하는 방법을 파고들 준비가 되었다면 첫 번째 단계는 시스템이 필요한 하드웨어 및 소프트웨어 요구 사항을 충족하는지 확인하는 것입니다. 신뢰하세요—강력한 기반에서 시작하면 전체 과정이 훨씬 더 원활해집니다.
하드웨어 사양
- 최소:
- GPU: NVIDIA GTX 1080 (8GB VRAM) 또는 Apple M1
- RAM: 16GB DDR4
- 스토리지: 모델 및 종속성에 대해 15GB SSD 공간
- 권장:
- GPU: NVIDIA RTX 4090 (24GB VRAM) 또는 Apple M3 Max
- RAM: 32GB DDR5
- 스토리지: 최소 50GB 용량의 NVMe SSD
소프트웨어 종속성
- Python: 버전 3.10에서 3.11 (Apple Silicon의 경우 3.11.6이 최적입니다)
- PyTorch: CUDA 12.1이 포함된 버전 2.2+(Windows/Linux용) 또는 Metal 지원(macOS용)
- FFmpeg: 비디오 인코딩/디코딩을 위한 버전 6.1
- 드라이버: Windows/Linux용 NVIDIA Studio Drivers 550+
다양한 플랫폼에 ComfyUI 설치하기
ComfyUI을 설정하기 위해 다음 세부 단계를 따르세요. 이는 Comfy UI와 함께 WAN 2.1을 사용하는 방법의 중요한 부분입니다.
Windows 설치
방법 A: ComfyUI 데스크톱 (공식 베타)
- 다운로드: comfyui.org/downloads에서
ComfyUI_Desktop_Windows_0.9.3b.exe
를 받습니다. - 설치 프로그램 실행: 설치 프로그램을 실행하고 NVIDIA GPU 가속이 활성화되어 있는지 확인합니다.
- 검증: 명령 프롬프트를 열고 다음을 실행합니다:
이 간단한 확인을 통해 모든 것이 제대로 설정되었는지 확인합니다.
방법 B: 수동 빌드
- 리포지토리 복제:
https://github.com/comfyanonymous/ComfyUI
2. 가상 환경 설정:
3. PyTorch 설치:
https://download.pytorch.org/whl/torch_stable.html
4. 요구 사항 설치:
pip install -r requirements.txt
macOS 설치 (M1/M2/M3)
- Homebrew 설치 (필요한 경우):
https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh
2. Python 및 FFmpeg 설치:
brew install python@3.11 ffmpeg
3. ComfyUI 복제 및 설정:
https://github.com/comfyanonymous/ComfyUI
https://download.pytorch.org/whl/torch_stable.html
리눅스 설치 (네이티브/WSL2)
WSL2용:
- Ubuntu 22.04로 WSL2 설치:
wsl --install -d Ubuntu-22.04
2. 업데이트 및 업그레이드:
sudo apt update && sudo apt full-upgrade -y
ComfyUI 배포:
- 리포지토리 복제:
https://github.com/comfyanonymous/ComfyUI
2. Conda 환경 설정 (권장):
3. CUDA와 함께 PyTorch 설치:
https://download.pytorch.org/whl/torch_stable.html
4. 요구 사항 설치:
pip install -r requirements.txt
WAN 2.1 모델 통합
ComfyUI가 준비되었다면 다음 단계는 Comfy UI와 함께 WAN 2.1을 사용하는 방법에서 WAN 2.1 모델을 통합하는 것입니다.
모델 획득 및 설정
- 가중치 다운로드:
wan_2.1_base.safetensors
(약 8.4GB)wan_2.1_vae.pth
(약 1.2GB)
이 파일들을 좋아하는 방법(예:wget
)으로 다운로드합니다.- 파일 배치:
wan_2.1_base.safetensors
를ComfyUI/models/checkpoints/
에 배치합니다.wan_2.1_vae.pth
를ComfyUI/models/vae/
에 배치합니다.
커스텀 노드 설치
커스텀 노드를 설치하여 워크플로를 향상시켜 보세요:
- 커스텀 노드 디렉토리로 이동:
cd ComfyUI/custom_nodes
- 필수 확장 복제:
git clone https://github.com/WASasquatch/was-node-suite-comfyui git clone https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite
이 노드는 비디오 프레임 보간 및 배치 처리와 같은 유용한 기능을 제공합니다.
WAN 2.1을 위한 워크플로 구성하기
Comfy UI와 함께 WAN 2.1을 사용하는 방법을 배우는 데 있어 올바른 파이프라인 구축이 핵심입니다.
텍스트-비디오 파이프라인 설정
다음은 간단한 파이프라인 구조입니다:
- 체크포인트 노드 로드: WAN 2.1 모델 가중치를 로드합니다.
- CLIPTextEncode 노드: 텍스트 프롬프트(예: “우주 구름 속을 나는 사이버네틱 드래곤”)를 조건 데이터로 변환합니다.
- WANSampler 노드: 다음과 같은 매개변수로 잠재 공간을 샘플링합니다:
해상도: 1024×576 프레임
프레임: 48 (필요에 따라 수정 가능)
모션 스케일: 일반적으로 부드러운 전환을 위해 1.2에서 2.5 사이입니다.
- VAEDecode 노드: 잠재 데이터를 최종 비디오 출력으로 디코딩합니다.
매개변수 조정 및 최적화
- 모션 스케일: 많은 사용자가 일관성을 유지하면서 부드러운 전환을 위해 약 1.8을 선호합니다.
- 시간적 주의: 장기적인 움직임 안정성을 유지하기 위해 0.85에서 0.97 사이의 설정을 목표로 하세요.
- 노이즈 스케줄 및 프레임 보간: Karras 및 FilmNet과 같은 옵션은 원치 않는 아티팩트를 줄이는 데 도움이 됩니다.
- 하이브리드 입력: 참조 이미지와 깊이 맵을 결합하여 스타일 전송을 강화하고 3D 효과를 도입합니다.
고급 비디오 생성 기술
이러한 고급 팁으로 프로젝트를 한층 더 발전시켜 보세요:
다중 이미지 참조
- 스타일 전송: 여러 참조 이미지를 사용하여 예술 스타일을 변경합니다.
- 깊이 맵 조건화: 깊이 맵을 통합하여 의사-3D 느낌을 만듭니다.
- ControlNet 및 포즈 추정: 인간 자세나 객체 위치를 사용하여 모델을 지시하여 더 세밀한 출력을 만듭니다.
카메라 움직임 시뮬레이션
CameraController
노드를 사용하여 동적인 카메라 움직임을 시뮬레이션하세요:
- 궤도 속도: 예: 0.12
- Dolly Zoom: 예: -0.05
- 롤 분산: 예: 2.7
이 조정으로 비디오에 영화 같은 멋을 부여합니다.
성능 최적화 및 문제 해결
VRAM 관리 기술
시스템이 효율적으로 실행되도록 유지하세요:
- 프레임 캐싱:
enable_offload_technique = True
로 설정하고 공격적인 VRAM 최적화를 선택하여 활성화합니다. - 혼합 정밀도: 성능 향상을 위해:
torch.set_float32_matmul_precision('medium')
일반적인 문제 해결
- 검은 프레임 출력: VAE 파일(
wan_2.1_vae.pth
)가 모델 버전과 일치하는지, 시간적 주의 설정을 확인합니다. - VRAM 오버플로우:
--medvram
및--xformers
플래그와 함께 ComfyUI를 시작합니다. - 로그 분석: 문제를 신속하게 파악하기 위해
comfy.log
에서 ERROR 또는 CRITICAL 메시지를 확인합니다.
플랫폼별 설치 차이점
다양한 플랫폼에 ComfyUI를 설치하는 주요 차이점을 간단히 정리하자면, Comfy UI와 함께 WAN 2.1을 사용하는 방법을 이해하는 데 중요합니다:
Windows
- 전통적인 방법:
- 포터블 ZIP 추출, 수동 Python 환경 설정 및 배치 파일 실행(예:
run_nvidia_gpu.bat
실행)이 포함됩니다. - 별도의 7-Zip 설치 및 CUDA 툴킷의 수동 구성이 필요합니다.
- V1 데스크톱 앱:
- 의존성 해결 및 설정을 자동화하는 200MB 정도의 번들 패키지로 제공되는 원클릭 설치 프로그램입니다.
macOS
- 전통적인 방법:
- 핵심 패키지를 설치하기 위해 Homebrew를 사용하며 수동 Python/MPS 설정이 필요합니다.
- 터미널을 통해 실행되며, Apple Silicon 최적화를 위해 Python 3.11+가 필수입니다.
- V1 데스크톱 앱:
- 통합된 Python 환경을 가진 범용 .dmg 패키지로 제공되어 설치를 상당히 간소화합니다.
리눅스
- 전통적인 방법:
- 터미널 기반 복제, conda 또는 pip 관리 및 NVIDIA/AMD 드라이버의 수동 설치에 의존합니다.
- AppArmor/SELinux 정책에 추가 조정이 필요할 수 있습니다.
- V1 데스크톱 앱:
- 의존성 관리 및 업데이트를 간소화하는 코드 서명된 바이너리(예: AppImage/DEB 패키지)를 제공합니다.
V1 데스크톱 앱은 모든 플랫폼에 걸쳐 자동 의존성 해결 및 통합 모델 라이브러리를 제공하여 설치 번거로움을 크게 줄여줍니다.
마지막 생각
요약하자면, 이 가이드는 Comfy UI와 함께 WAN 2.1을 사용하는 방법을 안내하며, 시스템 준비부터 고급 비디오 생성 기술에 이르기까지 안내했습니다. Windows, macOS 또는 Linux에 관계없이, 이제 전문가처럼 AI 비디오 작업 흐름을 설정하고, 사용자 정의하며 최적화할 수 있는 능력을 갖추게 되었습니다.
그러니 시스템을 잡고 실행해 보세요. 창의적인 여정을 즐기시길 바랍니다. 행복한 비디오 제작이 되기를 바라며, 여러분의 프로젝트가 새로운 차원으로 나아가기를 기원합니다!