2025年2月25日、Alibaba Cloudは、著名なTongyiシリーズからの先進的なAIビデオ生成モデルであるWan 2.1のオープンソースを発表し、業界に大きな衝撃を与えました。この革新的なモデルは、テキストのプロンプトを視覚的に印象的なビデオに変換し、複雑な動きや空間的な詳細を容易に処理します。抜群のVBenchスコア84.7%、多言語対応、無料アクセスを誇るWan 2.1は、すでにOpenAIのSora、Minimax、KuaishouのKling、GoogleのVeo 2を含む分野で強力な競争相手となっています。
セットアップの手間を省いてすぐにビデオを生成したい場合は、Anakin AIをチェックしてください。Wan 2.1の使用を簡単にするオールインワンプラットフォームです。さもなければ、このガイドでは、Mac、Windows、LinuxでComfy UIを使用してWAN 2.1を使う方法をインストール、構成、そして高度なビデオ生成技術をカバーしながら説明します。AIビデオ制作の未来を楽しみましょう!

導入とシステム準備
WAN 2.1をComfy UIで使用する方法に飛び込む準備ができたら、最初のステップはシステムが必要なハードウェアとソフトウェアの要件を満たしていることを確認することです。しっかりとした基盤から始めると、全体のプロセスがスムーズになります。
ハードウェア仕様
- 最小:
- GPU: NVIDIA GTX 1080 (8GB VRAM) または Apple M1
- RAM: 16GB DDR4
- ストレージ: モデルと依存関係用に15GBのSSDスペース
- 推奨:
- GPU: NVIDIA RTX 4090 (24GB VRAM) または Apple M3 Max
- RAM: 32GB DDR5
- ストレージ: 最低50GBの容量を持つNVMe SSD
ソフトウェアの依存関係
- Python: バージョン3.10から3.11 (3.11.6はApple Siliconに最適)
- PyTorch: CUDA 12.1対応のバージョン2.2+ (Windows/Linux用) または Metalサポート (macOS用)
- FFmpeg: ビデオエンコード/デコード用のバージョン6.1
- ドライバー: Windows/Linux用のNVIDIA Studioドライバー550+
異なるプラットフォームでのComfyUIのインストール
WAN 2.1をComfy UIで使用する方法の重要な部分であるComfyUIを設定するための詳細な手順に従ってください。
Windowsのインストール
方法A: ComfyUI デスクトップ(公式ベータ版)
- ダウンロード:
ComfyUI_Desktop_Windows_0.9.3b.exe
をcomfyui.org/downloadsから取得してください。 - インストーラーを実行: インストーラーを実行し、NVIDIA GPUアクセラレーションが有効になっていることを確認してください。
- 確認: コマンドプロンプトを開いて次を実行します:
このクイックチェックにより、すべてが適切に設定されているか確認できます。
方法B: 手動ビルド
- リポジトリをクローン:bashCopy
https://github.com/comfyanonymous/ComfyUI
2. 仮想環境の設定:
3. PyTorchをインストール:
https://download.pytorch.org/whl/torch_stable.html
4. 必要条件をインストール:
pip install -r requirements.txt
macOSインストール (M1/M2/M3)
- Homebrewをインストール(必要な場合):
https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh
2. Python & FFmpegをインストール:
brew install python@3.11 ffmpeg
3. ComfyUIをクローンして設定:
https://github.com/comfyanonymous/ComfyUI
https://download.pytorch.org/whl/torch_stable.html
Linux インストール (ネイティブ/WSL2)
WSL2の場合:
- Ubuntu 22.04でWSL2をインストール:
wsl --install -d Ubuntu-22.04
2. 更新とアップグレード:
sudo apt update && sudo apt full-upgrade -y
ComfyUIのデプロイ:
- リポジトリをクローン:
https://github.com/comfyanonymous/ComfyUI
2. Conda環境の設定(推奨):
3. CUDAを使用してPyTorchをインストール:
https://download.pytorch.org/whl/torch_stable.html
4. 必要条件をインストール:
pip install -r requirements.txt
WAN 2.1モデルの統合
ComfyUIが稼働したら、WAN 2.1をComfy UIで使用する方法の次のステップは、WAN 2.1モデルの統合です。
モデルの取得と設定
- 重みをダウンロード:
wan_2.1_base.safetensors
(約8.4GB)wan_2.1_vae.pth
(約1.2GB)
これらのファイルをお気に入りの方法(例えば、wget
)を使用してダウンロードしてください。- ファイルの配置:
wan_2.1_base.safetensors
をComfyUI/models/checkpoints/
に配置します。wan_2.1_vae.pth
をComfyUI/models/vae/
に配置します。
カスタムノードのインストール
カスタムノードをインストールしてワークフローを強化しましょう:
- カスタムノードディレクトリに移動:
cd ComfyUI/custom_nodes
- 必要な拡張をクローン:
git clone https://github.com/WASasquatch/was-node-suite-comfyui git clone https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite
これらのノードは、ビデオフレームの補間やバッチ処理のような便利な機能を提供します。
WAN 2.1用にワークフローを設定
適切なパイプラインを構築することが、WAN 2.1をComfy UIで使用する方法を学ぶ際の鍵です。
テキストからビデオへのパイプラインの設定
ここに簡単なパイプラインの構造があります:
- チェックポイントノードを読み込む:あなたのWAN 2.1モデルの重みを読み込みます。
- CLIPTextEncodeノード: テキストプロンプト(例:「星雲の雲を飛ぶサイボーグドラゴン」)を条件データに変換します。
- WANSamplerノード: 以下のようなパラメータで潜在空間をサンプリングします:
解像度: 1024×576フレーム
フレーム: 48(必要に応じて変更可)
モーションスケール: スムーズな遷移には通常1.2から2.5の間です。
- VAEDecodeノード: 潜在データを最終的なビデオ出力にデコードします。
パラメータの調整と最適化
- モーションスケール: 多くのユーザーは、一貫性とスムーズな遷移のバランスを取るために約1.8を好みます。
- 時間的アテンション: 長距離動作の安定性を維持するために0.85から0.97の設定を目指します。
- ノイズスケジュール & フレーム補間: KarrasやFilmNetのオプションで不要なアーティファクトを軽減します。
- ハイブリッド入力: 参照画像や深度マップを組み合わせてスタイル転送を強化し、3D効果を導入します。
高度なビデオ生成技術
これらの高度なヒントを用いてプロジェクトをさらに進めましょう:
マルチイメージリファレンス
- スタイル転送: 複数の参照画像を使用してアートスタイルを変更します。
- 深度マップの条件付け: 深度マップを取り入れて擬似3D感を作り出します。
- ControlNet & ポーズ推定: より洗練された出力のために人間のポーズや物体の位置を使用してモデルを指示します。
カメラモーションシミュレーション
CameraController
ノードを使用して動的なカメラ移動をシミュレートします:
- オービット速度: 例:0.12
- ドリーズーム: 例:-0.05
- ロールバリアンス: 例:2.7
これらの調整により、ビデオにシネマティックな flairを与えます。
パフォーマンス最適化とトラブルシューティング
VRAM管理技術
システムを効率的に運用し続けるために:
- フレームキャッシング:
enable_offload_technique = True
を設定し、攻撃的なVRAM最適化を選択することで有効にします。 - 混合精度: 以下を使用してパフォーマンスを向上させます:
torch.set_float32_matmul_precision('medium')
一般的な問題のトラブルシューティング
- 黒いフレーム出力: VAEファイル(
wan_2.1_vae.pth
)がモデルバージョンに一致していることを確認し、時間的アテンション設定を確認します。 - VRAMオーバーフロー:
--medvram
と--xformers
フラグを使用してComfyUIを起動します。 - ログ分析: 問題を迅速に特定するために
comfy.log
を確認します。
プラットフォーム特有のインストールの違い
ComfyUIをWindows、macOS、およびLinuxにインストールする際の主な違いについての簡単な概要は以下の通りです。これはWAN 2.1をComfy UIで使用する方法を理解する上で重要です:
Windows
- 従来の方法:
- ポータブルZIPの抽出、手動のPython環境設定、バッチファイルの実行(
run_nvidia_gpu.bat
を実行するなど)が含まれます。 - 別途7-ZipのインストールとCUDAツールキットの手動設定が必要です。
- V1デスクトップアプリ:
- 依存関係の解決と設定を自動化するワンクリックインストーラー(約200MBのバンドルパッケージ)です。
macOS
- 従来の方法:
- コアパッケージのインストールにHomebrewを使用し、手動のPython/MPS設定が必要です。
- ターミナルから起動し、Apple Silicon上で最適化するためにはPython 3.11+が必須です。
- V1デスクトップアプリ:
- 統合されたPython環境を持つユニバーサル.dmgパッケージとして提供され、インストールが大幅に簡素化されます。
Linux
- 従来の方法:
- 端末ベースのクローン、condaまたはpipの管理、NVIDIA/AMDドライバの手動インストールに依存します。
- AppArmor/SELinuxポリシーにおいて追加の調整が必要な場合があります。
- V1デスクトップアプリ:
- 依存関係の管理や更新を簡素化するコード署名済みバイナリを提供します(AppImage/DEBパッケージ経由)。
V1デスクトップアプリは、自動依存関係解決とすべてのプラットフォームにわたる統一モデルライブラリを提供することで、インストールの手間を大幅に削減します。
最終的な考え
要約すると、このガイドでは、WAN 2.1をComfy UIで使用する方法について説明しました。システムの準備から高度なビデオ生成技術まで、Windows、macOS、Linuxのいずれを使用していても、今やプロのようにAIビデオワークフローを設定、カスタマイズ、最適化する準備が整いました。
さあ、自分のシステムを準備して、楽しんでください。動画制作を楽しんで、新しい高みにプロジェクトを推進してください!