(¡No se necesita un doctorado en IA!)
Imagina escribir un aviso de texto como “un delfín saltando sobre un arcoíris” y ver cómo un video generado por IA en 720p se materializa en tu computadora. Esa es la magia de Wan 14B txt2video, un modelo de código abierto que empuja los límites de la síntesis de texto a video.
Prueba de Wan 14B txt2video 720p #AI #AIイラスト #Comfyui pic.twitter.com/q9cauU5Qlu
— toyxyz (@toyxyz3) 26 de febrero de 2025
¿Pero cómo ejecutas esta tecnología futurista en tu propia máquina? En esta guía, lo desglosaremos en pasos simples y sin jerga. Ya seas un aficionado, creador de contenido, o simplemente tengas curiosidad por la IA, convertiremos tus ideas en videos—sin necesidad de suscripción a la nube.
¿Quieres usar Deepseek, ChatGPT Deep Research, Minimax Video, Wan Video Generator, FLUX Image Generator en UN SOLO LUGAR?
Crea tu primer video de IA ahora →

Lo que necesitarás
Antes de sumergirnos, preparemos tu configuración. Aquí está la lista de verificación:
- Requisitos de Hardware
- GPU: Al menos una NVIDIA RTX 3060 (8GB+ VRAM).¿Por qué? La generación de video consume muchos recursos. Los gráficos integrados no son suficientes.
- RAM: 16GB+ (se recomiendan 32GB para una ejecución más suave).
- Almacenamiento: 20GB+ de espacio libre (los modelos y dependencias son pesados).
- Pila de Software
- OS: Linux (se prefiere Ubuntu 22.04 LTS) o Windows 11 con WSL2.
- Python 3.10+: La columna vertebral de los flujos de trabajo de IA.
- CUDA Toolkit 11.8: Para aceleración de GPU.
- Git: Para clonar el repositorio.
- Paciencia:
- La configuración inicial toma aproximadamente 1 hora. Las ejecuciones posteriores son más rápidas.
Paso 1: Instalar Pre-requisitos
Establezcamos la base.
Para Usuarios de Linux:
Abre la Terminal y ejecuta:
sudo apt update && sudo apt upgrade -y
sudo apt install python3.10 python3-pip git -y
Para Usuarios de Windows:
- Instala Windows Subsystem for Linux (WSL2) la guía oficial de Microsoft.
- Abre Terminal de Ubuntu a través de WSL2 y ejecuta los comandos de Linux anteriores.
Instala CUDA y PyTorch:
# Instalar CUDA 11.8
wget <https://developer.download.nvidia.com/compute/cuda/11.8.0/local_installers/cuda_11.8.0_520.61.05_linux.run>
sudo sh cuda_11.8.0_520.61.05_linux.run
# Instalar PyTorch con soporte para CUDA
pip3 install torch torchvision torchaudio --index-url <https://download.pytorch.org/whl/cu118>
Paso 2: Clonar el Repositorio Wan 14B
El código del modelo se encuentra en GitHub. Vamos a obtenerlo:
git clone <https://github.com/wan-org/Wan-14B-txt2video.git>
cd Wan-14B-txt2video
Consejo Profesional: Revisa el README.md
para actualizaciones. ¡El espacio de IA evoluciona más rápido que las tendencias de TikTok!
Paso 3: Configura un Entorno Virtual
¡Evita el infierno de las dependencias! Aísla tu proyecto:
python3 -m venv wan-env
source wan-env/bin/activate # Linux/WSL
# Para Windows CMD: .\\wan-env\\Scripts\\activate
Instala los requisitos:
pip install -r requirements.txt
Paso 4: Descarga los Pesos del Modelo
El repositorio no incluye el modelo de IA real (es demasiado grande). Descarga los pesos preentrenados:
- Opción 1 (Oficial):
Visita la página de Hugging Face del modelo (regístrate si es necesario).
Usa git lfs
para descargar:
git lfs install
git clone <https://huggingface.co/wan-14b/txt2video-720p>
Mueve la carpeta txt2video-720p
al directorio del proyecto.
- Opción 2 (Descarga Directa):
- Algunas comunidades alojan espejos. Consulta el Discord del proyecto para enlaces magnéticos (¡pero verifica los checksums!).
Paso 5: Configura tu Primer Video
¡Es hora de crear tu obra maestra!
Redacta tu Aviso:
Sé específico. En lugar de “un paisaje urbano”, prueba:
“Una ciudad futurista iluminada por neón de noche, coches voladores zumbando entre rascacielos, estilo cyberpunk, 720p, 30fps.”
Ajusta Configuraciones en config.yaml
:
Abre el archivo y ajusta:
output_resolution: [1280, 720]
num_frames: 90 # 3 segundos a 30fps
guidance_scale: 7.5 # Mayor = más adherencia al aviso
seed: 42 # Cambia para resultados diferentes
Ejecuta el Script:
python generate.py --prompt "TU_AVISO" --config config.yaml
Nota: La primera ejecución tomará más tiempo (el modelo se inicializa). Las ejecuciones posteriores utilizan pesos en caché.
Paso 6: Monitorea y Soluciona Problemas
Tu terminal se verá como una escena de The Matrix. Aquí está lo que debes observar:
- Uso de VRAM: Ejecuta
nvidia-smi
(Linux/WSL) o Administrador de Tareas (Windows) para verificar la carga de la GPU. - ¿Sin memoria? Reduce
num_frames
ooutput_resolution
enconfig.yaml
. - ¿Atascado en 100% CPU? Asegúrate de que CUDA y PyTorch estén correctamente instalados.
- ¿Artefactos o fallos? Aumenta
guidance_scale
o refina tu aviso.
Paso 7: Renderiza y Procesa
Una vez generado, tu video (por ejemplo, output_001.mp4
) estará en la carpeta results
.
Mejora Esto:
Aumenta la Escala con FFmpeg:
ffmpeg -i output_001.mp4 -vf "scale=1280:720:flags=lanczos" upscaled.mp4
Agrega Sonido: Usa Audacity o música libre de derechos de Epidemic Sound.
Consejos de Optimización
Procesamiento por Lotes: Programa múltiples avisos durante la noche.
Usa xFormers: Instala esta biblioteca para acelerar la inferencia:
pip install xformers
Menor Precisión: Usa fp16
en config.yaml
para videos más rápidos (pero ligeramente menos nítidos).
FAQ: Tus Preguntas Urgentes, Respondidas
P: ¿Puedo ejecutar esto en un Mac M2?
R: Lamentablemente, no. La API Metal de Apple no es completamente compatible con modelos dependientes de CUDA.
P: ¿Por qué 720p y no 4K?
R: 720p requiere ~8GB de VRAM. 4K necesitaría una GPU de $10,000 (por ahora).
P: ¡Mi video dura solo 2 segundos. ¡Ayuda!
R: Aumenta num_frames
en config.yaml
. Cada cuadro = 1/30 de segundo.
P: ¿Puedo entrenar mi propia versión de Wan 14B?
R: Técnicamente sí, pero necesitarías un conjunto de datos de videos etiquetados y un montón de computación.
Reflexiones Finales
Ejecutar Wan 14B txt2video localmente es como tener un director de nivel Spielberg en tu PC—solo necesita instrucciones claras (y una GPU decente). Aunque la tecnología aún no es perfecta (espera fallos surrealistas ocasionales), es una emocionante visión del futuro de la creación de contenido.
Ve y Crea:
- Crea cortos virales para TikTok/YouTube.
- Visualiza sueños o guiones gráficos.
- Experimente con avisos de arte abstracto (“relojes derritiéndose en un desierto, estilo Dali”).
Recuerda, cada video generado por IA hoy es un peldaño hacia los éxitos holográficos del mañana. ¡Feliz renderización! 🎥✨
¿Te quedaste atascado? ¡Deja un comentario abajo o únete al Discord de la comunidad Wan para obtener ayuda en tiempo real!