Como Usar o WAN 2.1 com o Comfy UI no Mac, Windows e Linux: Um Guia Completo

No dia 25 de fevereiro de 2025, a Alibaba Cloud agitou a indústria ao tornar o Wan 2.1, um modelo avançado de geração de vídeos com IA da aclamada série Tongyi, de código aberto. Este modelo inovador transforma comandos de texto em vídeos visualmente impressionantes, lidando com movimentos complexos

Build APIs Faster & Together in Apidog

Como Usar o WAN 2.1 com o Comfy UI no Mac, Windows e Linux: Um Guia Completo

Start for free
Inhalte

No dia 25 de fevereiro de 2025, a Alibaba Cloud agitou a indústria ao tornar o Wan 2.1, um modelo avançado de geração de vídeos com IA da aclamada série Tongyi, de código aberto. Este modelo inovador transforma comandos de texto em vídeos visualmente impressionantes, lidando com movimentos complexos e detalhes espaciais com facilidade. Com um destaque de pontuação VBench de 84,7%, suporte multilíngue e acesso gratuito, o Wan 2.1 já é um forte concorrente em um campo que inclui o Sora da OpenAI, o Minimax, o Kling do Kuaishou e o Veo 2 do Google.

Se você prefere pular a complicação da configuração e começar a gerar vídeos imediatamente, confira Anakin AI—uma plataforma de IA tudo-em-um que torna o uso do Wan 2.1 uma brisa. Caso contrário, este guia irá guiá-lo sobre como usar o WAN 2.1 com o Comfy UI no Mac, Windows e Linux, cobrindo instalação, configuração e técnicas avançadas de geração de vídeo. Aproveite para explorar o futuro da criação de vídeos com IA!

Anakin.ai - One-Stop AI App Platform
Generate Content, Images, Videos, and Voice; Craft Automated Workflows, Custom AI Apps, and Intelligent Agents. Your exclusive AI app customization workstation.

Introdução e Preparações do Sistema

Quando você estiver pronto para mergulhar em como usar o WAN 2.1 com o Comfy UI, o primeiro passo é garantir que seu sistema atenda aos requisitos de hardware e software necessários. Acredite—começar com uma base sólida torna todo o processo muito mais suave.

Especificações de Hardware

  • Mínimo:
  • GPU: NVIDIA GTX 1080 (8GB VRAM) ou Apple M1
  • RAM: 16GB DDR4
  • Armazenamento: 15GB de espaço em SSD para modelos e dependências
  • Recomendado:
  • GPU: NVIDIA RTX 4090 (24GB VRAM) ou Apple M3 Max
  • RAM: 32GB DDR5
  • Armazenamento: SSD NVMe com pelo menos 50GB de capacidade

Dependências de Software

  • Python: Versões 3.10 a 3.11 (3.11.6 funciona melhor para Apple Silicon)
  • PyTorch: Versão 2.2+ com CUDA 12.1 (para Windows/Linux) ou suporte a Metal (para macOS)
  • FFmpeg: Versão 6.1 para codificação/decodificação de vídeo
  • Drivers: NVIDIA Studio Drivers 550+ para Windows/Linux

Instalando o ComfyUI em Diferentes Plataformas

Siga estes passos detalhados para configurar o ComfyUI, uma parte crucial de como usar o WAN 2.1 com o Comfy UI.

Instalação do Windows

Método A: ComfyUI Desktop (Beta Oficial)

  1. Baixar: Obtenha o ComfyUI_Desktop_Windows_0.9.3b.exe em comfyui.org/downloads.
  2. Executar Instalador: Execute o instalador e certifique-se de que a aceleração GPU da NVIDIA esteja habilitada.
  3. Verificação: Abra um prompt de comando e execute:

Esta verificação rápida confirma que tudo está configurado corretamente.

Método B: Construção Manual

  1. Clone o Repositório:
https://github.com/comfyanonymous/ComfyUI

2. Configurar Ambiente Virtual:


3. Instalar PyTorch:

https://download.pytorch.org/whl/torch_stable.html

4. Instalar Requisitos:

pip install -r requirements.txt

Instalação do macOS (M1/M2/M3)

  1. Instalar Homebrew (se necessário):
https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh

2. Instalar Python & FFmpeg:

brew install python@3.11 ffmpeg

3. Clonar e Configurar ComfyUI:

https://github.com/comfyanonymous/ComfyUI

https://download.pytorch.org/whl/torch_stable.html

Instalação do Linux (Nativo/WSL2)

Para WSL2:

  1. Instalar WSL2 com Ubuntu 22.04:
wsl --install -d Ubuntu-22.04

2. Atualizar e Fazer Upgrade:

sudo apt update && sudo apt full-upgrade -y

Implantação do ComfyUI:

  1. Clone o Repositório:
https://github.com/comfyanonymous/ComfyUI

2. Configurar Ambiente Conda (Recomendado):


3. Instalar PyTorch com CUDA:

https://download.pytorch.org/whl/torch_stable.html

4. Instalar Requisitos:

pip install -r requirements.txt

Integração do Modelo WAN 2.1

Com o ComfyUI funcionando, o próximo passo em como usar o WAN 2.1 com o Comfy UI é integrar o modelo WAN 2.1.

Aquisição e Configuração do Modelo

  • Baixar Pesos:
  • wan_2.1_base.safetensors (aprox. 8.4GB)
  • wan_2.1_vae.pth (aprox. 1.2GB)
    Baixe esses arquivos usando seu método favorito (por exemplo, wget).
  • Colocação de Arquivos:
  • Coloque wan_2.1_base.safetensors em ComfyUI/models/checkpoints/
  • Coloque wan_2.1_vae.pth em ComfyUI/models/vae/

Instalação de Nodes Personalizados

Melhore seu fluxo de trabalho instalando nodes personalizados:

  1. Navegue até o Diretório de Nodes Personalizados
cd ComfyUI/custom_nodes
  1. Clone Extensões Essenciais:
git clone https://github.com/WASasquatch/was-node-suite-comfyui git clone https://github.com/Kosinkadink/ComfyUI-VideoHelperSuite

Esses nodes oferecem recursos úteis, como interpolação de quadros de vídeo e processamento em lote.


Configurando Seu Fluxo de Trabalho para WAN 2.1

Construir o pipeline certo é crucial ao aprender como usar o WAN 2.1 com o Comfy UI.

Configurando o Pipeline de Texto para Vídeo

Aqui está uma estrutura de pipeline simplificada:

  • Node de Checkpoint Carregar: Carrega os pesos do modelo WAN 2.1.
  • Node CLIPTextEncode: Converte comandos de texto (ex: “Um dragão cibernético voando através de nuvens de nebulosa”) em dados de condicionamento.
  • Node WANSampler: Amostra o espaço latente com parâmetros como:

Resolução: 1024×576 quadros

Quadros: 48 (modificável conforme necessário)

Escala de Movimento: Tipicamente entre 1.2 e 2.5 para transições suaves.

  • Node VAEDecode: Decodifica os dados latentes em uma saída de vídeo final.

Ajustes de Parâmetros & Otimização

  • Escala de Movimento: Muitos usuários preferem cerca de 1.8 para equilibrar transições suaves com consistência.
  • Atenção Temporal: Busque configurações entre 0.85 e 0.97 para manter a estabilidade do movimento em grande alcance.
  • Agenda de Ruído & Interpolação de Quadros: Opções como Karras e FilmNet ajudam a reduzir artefatos indesejados.
  • Entradas Híbridas: Combine imagens de referência e mapas de profundidade para melhorar a transferência de estilo e introduzir um efeito 3D.

Técnicas Avançadas de Geração de Vídeo

Leve seus projetos mais longe com estas dicas avançadas:

Referenciamento de Múltiplas Imagens

  • Transferência de Estilo: Use várias imagens de referência para alterar o estilo artístico.
  • Condicionamento de Mapa de Profundidade: Incorpore mapas de profundidade para criar uma sensação pseudo-3D.
  • ControlNet & Estimativa de Pose: Direcione o modelo usando poses humanas ou posicionamento de objetos para resultados mais refinados.

Simulação de Movimento de Câmera

Simule movimentos de câmera dinâmicos com o node CameraController:

  • Velocidade de Órbita: ex: 0.12
  • Dolly Zoom: ex: -0.05
  • Variância de Rolagem: ex: 2.7
    Esses ajustes dão aos seus vídeos um toque cinematográfico.

Otimização de Desempenho & Resolução de Problemas

Técnicas de Gerenciamento de VRAM

Mantenha seu sistema funcionando eficientemente:

  • Cache de Quadros: Habilite definindo enable_offload_technique = True e optando por otimização agressiva de VRAM.
  • Precisão Mista: Aumente o desempenho usando:
torch.set_float32_matmul_precision('medium')

Resolução de Problemas Comuns

  • Saída de Quadro Preto: Verifique se seu arquivo VAE (wan_2.1_vae.pth) corresponde à versão do seu modelo e verifique suas configurações de atenção temporal.
  • Transbordo de VRAM: Inicie o ComfyUI com as flags --medvram e --xformers.
  • Análise de Logs: Inspecione comfy.log em busca de mensagens de ERRO ou CRÍTICA para identificar rapidamente problemas.

Diferenças Específicas de Instalação por Plataforma

Aqui está um resumo rápido das principais diferenças entre a instalação do ComfyUI no Windows, macOS e Linux—importante para entender ao descobrir como usar o WAN 2.1 com o Comfy UI:

Windows

  • Método Tradicional:
  • Envolve uma extração de ZIP portátil, configuração manual do ambiente Python e execução de arquivos em lote (como executar run_nvidia_gpu.bat).
  • Requer uma instalação separada do 7‑Zip e configuração manual do toolkit CUDA.
  • App Desktop V1:
  • Um instalador com um clique (cerca de 200MB pacote agrupado) que automatiza a resolução de dependências e a configuração.

macOS

  • Método Tradicional:
  • Usa o Homebrew para instalar pacotes fundamentais e requer configuração manual do Python/MPS.
  • Inicia via Terminal, e Python 3.11+ é obrigatório para otimização no Apple Silicon.
  • App Desktop V1:
  • Vem como um pacote universal .dmg com um ambiente Python integrado, simplificando significativamente a instalação.

Linux

  • Método Tradicional:
  • Baseia-se na clonagem via terminal, gerenciamento de conda ou pip e instalação manual de drivers NVIDIA/AMD.
  • Pode precisar de ajustes adicionais para políticas do AppArmor/SELinux.
  • App Desktop V1:
  • Oferece binários assinados (via pacotes AppImage/DEB) que simplificam o gerenciamento de dependências e atualizações.

O App Desktop V1 reduz drasticamente os problemas de instalação ao fornecer resolução automática de dependências e bibliotecas de modelos unificadas em todas as plataformas.


Pensamentos Finais

Em resumo, este guia o levou através de como usar o WAN 2.1 com o Comfy UI—desde a preparação do seu sistema até a exploração de técnicas avançadas de geração de vídeo. Não importa se você está no Windows, macOS ou Linux, agora está preparado para configurar, personalizar e otimizar seu fluxo de trabalho de vídeo com IA como um profissional.

Então, pegue seu sistema, dê uma volta e aproveite a jornada criativa. Boa produção de vídeos, e que suas criações alcancem novos patamares!