Cómo instalar y ejecutar QwQ-32B localmente en Windows, macOS y Linux

Imagina tener un potente modelo de IA corriendo en tu propia computadora — sin llamadas API interminables, sin facturas en la nube y, lo mejor de todo, completa privacidad para tus datos sensibles. Con el QwQ-32B de Alibaba, puedes llevar IA de nivel empresarial directamente a tu escritorio. En esta guía,

Build APIs Faster & Together in Apidog

Cómo instalar y ejecutar QwQ-32B localmente en Windows, macOS y Linux

Start for free
Inhalte

Imagina tener un potente modelo de IA corriendo en tu propia computadora — sin llamadas API interminables, sin facturas en la nube y, lo mejor de todo, completa privacidad para tus datos sensibles. Con el QwQ-32B de Alibaba, puedes llevar IA de nivel empresarial directamente a tu escritorio. En esta guía, te guiaré a través de la instalación y ejecución de QwQ-32B localmente en Windows, macOS y Linux. Además, te mostraré cómo el proceso es casi idéntico para cualquier modelo disponible en Ollama, lo que lo hace súper versátil. Y si tienes curiosidad por explorar no solo QwQ-32B sino también otros modelos innovadores como DeepSeek-R1, GPT-4o y Clause 3.7, puedes verificarlos en Anakin AI — un centro integral para todo lo relacionado con la IA.

¿Por qué Ejecutar QwQ-32B Localmente?

Antes de sumergirnos en los detalles, hablemos rápidamente sobre por qué querrías ejecutar QwQ-32B en tu propio hardware:

  • Privacidad: Mantén todos tus datos en tu computadora. No hay necesidad de preocuparse por enviar información sensible a un servicio en la nube.
  • Ahorro de Costos: Con instalaciones locales, evitas los costos recurrentes de API. QwQ-32B funciona por tan solo $0.25 por millón de tokens en comparación con costos en la nube mucho más altos.
  • Personalización: Ajusta el modelo con tus propios conjuntos de datos y modifícalo para tus necesidades únicas.
  • Flexibilidad: Cambia entre diferentes modelos — como Llama 3, Mistol y más — usando el mismo proceso simple.

Ejecutar QwQ-32B localmente te da control total sobre el modelo, y el proceso de configuración es sorprendentemente amigable para principiantes. ¡Incluso si nunca has abierto una Terminal antes, puedes tener esto funcionando en aproximadamente 10 minutos!


Requisitos de Hardware para QwQ-32B

Ejecutar QwQ-32B localmente exige hardware robusto para garantizar una instalación fluida y una inferencia eficiente. A continuación se detallan los requisitos mínimos para cada plataforma:

Mac

  • Procesador: Apple Silicon — Se recomienda M1 Pro o M1 Max para un rendimiento óptimo.
  • RAM: Mínimo de 24GB. (Ideal para contextos más grandes: sistemas con 48GB o más de memoria unificada ofrecen un rendimiento aún mejor.)
  • Almacenamiento: Espacio libre en disco suficiente (se recomienda al menos 100GB para archivos de modelos y datos adicionales).

Windows

  • Procesador: CPU moderna de múltiples núcleos con soporte AVX2/AVX512.
  • GPU: Para versiones cuantificadas: NVIDIA GeForce RTX 3060 (12GB VRAM) o superior.
  • Para inferencia de precisión total: se recomienda NVIDIA RTX 4090 (24GB VRAM).
  • RAM: Al menos 32GB para un funcionamiento fluido.
  • Almacenamiento: Mínimo de 100GB de espacio libre para archivos de modelo y recursos relacionados.

Linux

  • Procesador: CPU de múltiples núcleos con soporte AVX2/AVX512. Los chips ARM también son compatibles.
  • GPU: Para versiones cuantificadas: NVIDIA RTX 3090 o RTX 4090 (24GB VRAM) es suficiente.
  • Para contextos más grandes o configuraciones de mayor precisión, se recomiendan GPUs como la NVIDIA A6000.
  • RAM: Mínimo de 32GB.
  • Almacenamiento: Al menos 100GB de espacio libre para el almacenamiento del modelo.

Cómo Instalar QwQ-32B en Windows

Cómo Instalar QwQ-32B en Windows

Paso 1: Descargar e Instalar Ollama

El primer paso es descargar Ollama — un software gratuito que facilita las instalaciones de IA locales. Aquí te explico cómo:

  1. Visita ollama.com y haz clic en el botón de descarga para Windows.
  2. Ejecuta el archivo .exe descargado. No se requieren derechos de administrador.
  3. Sigue las instrucciones en pantalla para instalar Ollama. Puede que te pida que ingreses el código de acceso de tu computadora; eso es normal.

Paso 2: Abrir la Terminal

A continuación, abre la Terminal en tu máquina Windows. Puedes hacer esto buscando "Terminal" en tu menú de inicio. Puede parecer un poco técnico, pero no te preocupes — solo sigue adelante.

Paso 3: Instalar Tu Modelo Elegido

Con Ollama instalado, ahora puedes instalar QwQ-32B. En la Terminal, escribe el comando:

ollama run qwq:32b-preview-fp16

Este comando le dice a Ollama que ejecute la versión de precisión total (FP16) de QwQ-32B. Si tu sistema tiene menos VRAM, puedes optar por una versión cuantificada en su lugar:

ollama run qwq:32b-preview-q4_K_M

Después de presionar enter, el modelo comenzará su instalación. Esto puede tardar unos segundos. Una vez instalado, puedes probarlo haciendo una pregunta simple como:

> ¿Cuál es la integral de x² de 0 a 5?

La Terminal debería mostrar la respuesta, lo que demuestra que tu modelo está funcionando.

Cómo Instalar QwQ-32B en macOS

Cómo Instalar QwQ-32B en macOS

Paso 1: Instalación de la Terminal a través de un Script de Shell

Los usuarios de Mac, especialmente aquellos con Apple Silicon, tienen un proceso similar. Abre la Terminal y ejecuta:

https://ollama.com/install.sh

Este script instala Ollama en tu macOS. Sigue cualquier indicación que aparezca durante la instalación.

Paso 2: Gestionando la Memoria

Para Macs con mayor memoria (48GB o más), puedes elegir la versión cuantificada de 5 bits:

ollama run qwq:32b-preview-q5_1

Esta versión está optimizada para máquinas con una configuración robusta de memoria unificada. Usa el Monitor de Actividad para mantener un ojo en tu uso de memoria durante la inferencia.

Paso 3: Probar el Modelo

Después de la instalación, prueba tu configuración ingresando una consulta en la Terminal:

> ¿Cuál es tu nombre?

Deberías recibir una respuesta del modelo, confirmando que todo está funcionando como se espera.

Cómo Instalar QwQ-32B en Linux

Cómo Instalar QwQ-32B en Linux


Para los usuarios de Linux, particularmente aquellos en Ubuntu o Debian, aquí tienes un proceso sencillo:

Paso 1: Actualizar e Instalar Dependencias

Abre tu Terminal y ejecuta:

sudo apt update && sudo apt install -y curl nvidia-driver-535

Este comando actualiza tu sistema e instala los controladores NVIDIA necesarios.

Paso 2: Instalar Ollama

A continuación, instala Ollama ejecutando:

https://ollama.com/install.sh

Paso 3: Habilitar el Servicio Ollama

Habilita e inicia el servicio Ollama para tu usuario con:

systemctl — user enable ollama && systemctl — user start ollama

Paso 4: Verificar la Aceleración por GPU

Para asegurarte de que tu GPU está configurada correctamente, escribe:

nvidia-smi

Este comando debería mostrar la utilización de tu GPU, indicando que el modelo tendrá los recursos que necesita.

Opcional: Configuración de una Interfaz Web con Docker

Si prefieres una interfaz gráfica similar a ChatGPT en lugar de usar la línea de comandos, puedes configurar una interfaz web usando Docker. Este enfoque es un poco más técnico, pero solo necesita hacerse una vez.

Paso 1: Instalar Docker Desktop

Descarga e instala Docker Desktop desde el sitio web de Docker.

Paso 2: Ejecutar el Contenedor Open WebUI

En tu Terminal, ejecuta:

docker run -d -p 8080:8080 — gpus all -v ollama:/root/.ollama -v open-webui:/app/backend/data — name open-webui — restart always ghcr.io/open-webui/open-webui:main

Este comando extrae el contenedor, configura el acceso a la GPU y mapea los volúmenes necesarios. Una vez completado, abre tu navegador web y navega a http://localhost:8080. Verás una interfaz similar a ChatGPT donde puedes interactuar con tu modelo local.

Alternativa en la Nube para Hardware De Bajo Rendimiento

Si tu computadora no cumple con las especificaciones requeridas, considera una alternativa en la nube. Por ejemplo, NodeShift ofrece instancias de GPU:

  1. Regístrate en NodeShift y crea una cuenta.
  2. Lanza una Instancia GPU con un GPU A100 o A6000.
  3. Instala QwQ-32B Usando el Instalador Automático:
curl -sL nodeshift.com/qwq32b-install | bash

Esto configura QwQ-32B en una instancia en la nube, permitiéndote eludir las limitaciones de hardware mientras todavía disfrutas de un control similar al local.

Ajuste Fino y Personalización

Una vez que tu modelo esté operativo, puedes ajustarlo para que se adapte a tus necesidades. Por ejemplo, puedes crear una versión personalizada de QwQ-32B con tu propio conjunto de datos:

ollama create qwq-custom -f Modelfile

Para más orientación, explora el repositorio oficial de Hugging Face de Alibaba donde encontrarás configuraciones de muestra y contribuciones de la comunidad.

Unirlo Todo

Ejecutar QwQ-32B localmente es más que un ejercicio técnico — es una puerta de entrada para aprovechar la IA de nivel empresarial en tu propio hardware. Esta guía cubrió lo básico para Windows, macOS y Linux, junto con consejos sobre cómo configurar una interfaz web e incluso alternativas en la nube para quienes no tienen hardware de alto rendimiento.

Imagina la libertad de poder ejecutar modelos de IA sin conexión, analizando privadamente tus propios documentos y experimentando con diferentes modelos, todo desde tu máquina local. Y recuerda, el mismo proceso simple se puede usar para instalar cualquier modelo disponible en Ollama. Ya sea que estés trabajando con QwQ-32B, Llama 3, Mistol o cualquier otro modelo, los pasos son notablemente similares.

Si estás ansioso por probar estas posibilidades emocionantes, no olvides explorar Anakin AI. Con acceso a toda una suite de modelos avanzados como QwQ-32B, DeepSeek-R1, GPT-4o, Clause 3.7 y más, Anakin AI es tu centro definitivo para la innovación en IA de vanguardia.


Una Palabra Final: Abrazar el Poder de la IA Local

A medida que avanzamos hacia 2025, el panorama de la IA está evolucionando rápidamente. Ejecutar modelos como QwQ-32B localmente te empodera con privacidad, ahorro de costos y la libertad de innovar sin limitaciones. Ya seas un desarrollador experimentado o estés comenzando, configurar tu propio entorno de IA local abre un mundo de posibilidades creativas.

Entonces, ¿por qué esperar? Da el salto, sigue esta guía e instala QwQ-32B en tu computadora hoy. Y si tienes curiosidad por explorar una gama aún más amplia de modelos de IA, Anakin AI te espera — con un tesoro de herramientas poderosas listas para transformar tus ideas en realidad.

¡Feliz experimentación, y aquí está a un futuro donde la IA avanzada sea accesible para todos — justo desde la comodidad de tu hogar!