كيفية تثبيت وتشغيل QwQ-32B محليًا على ويندوز، macOS، ولينكس

تخيل أن لديك نموذج AI قوي يعمل على جهاز الكمبيوتر الخاص بك - بدون استدعاءات API لا نهاية لها، بدون فواتير سحابية، والأفضل من كل شيء، خصوصية كاملة لبياناتك الحساسة. مع نموذج QwQ-32B من Alibaba، يمكنك إحضار AI بمستوى المؤسسات مباشرة إلى مكتبك. في هذا الدليل، سأرشدك خلال عملية تثبيت

Build APIs Faster & Together in Apidog

كيفية تثبيت وتشغيل QwQ-32B محليًا على ويندوز، macOS، ولينكس

Start for free
Inhalte

تخيل أن لديك نموذج AI قوي يعمل على جهاز الكمبيوتر الخاص بك - بدون استدعاءات API لا نهاية لها، بدون فواتير سحابية، والأفضل من كل شيء، خصوصية كاملة لبياناتك الحساسة. مع نموذج QwQ-32B من Alibaba، يمكنك إحضار AI بمستوى المؤسسات مباشرة إلى مكتبك. في هذا الدليل، سأرشدك خلال عملية تثبيت وتشغيل QwQ-32B محليًا على أنظمة Windows وmacOS وLinux. بالإضافة إلى ذلك، سأوضح لك كيف أن العملية متشابهة إلى حد كبير لأي نموذج متاح على Ollama، مما يجعلها متعددة الاستخدامات بشكل كبير. وإذا كنت فضولياً لاستكشاف ليس فقط QwQ-32B ولكن أيضاً نماذج رائدة أخرى مثل DeepSeek-R1 وGPT-4o وClause 3.7، يمكنك الاطلاع عليها على Anakin AI - مركز شامل لكل ما يتعلق بالذكاء الاصطناعي.

لماذا تشغيل QwQ-32B محليًا؟

قبل الغوص في التفاصيل، دعنا نتحدث بسرعة عن لماذا قد ترغب في تشغيل QwQ-32B على أجهزتك الخاصة:

  • الخصوصية: احتفظ بجميع بياناتك على جهاز الكمبيوتر الخاص بك. لا داعي للقلق بشأن إرسال معلومات حساسة إلى خدمة سحابية.
  • توفير التكاليف: مع التثبيتات المحلية، تتجاوز تكاليف API المتكررة. يعمل QwQ-32B بتكلفة تصل إلى 0.25 دولار لكل مليون رموز مقارنةً بتكاليف سحابية أعلى بكثير.
  • التخصيص: قم بضبط النموذج باستخدام مجموعات البيانات الخاصة بك وقم بتعديله لاحتياجاتك الفريدة.
  • المرونة: يمكنك التبديل بين نماذج مختلفة - مثل Llama 3 وMistol والمزيد - باستخدام نفس العملية البسيطة.

تشغيل QwQ-32B محليًا يمنحك السيطرة الكاملة على النموذج، وعملية الإعداد سهلة بشكل مفاجئ للمبتدئين. حتى لو لم تقم بفتح Terminal من قبل، يمكنك تشغيله في حوالي 10 دقائق!

متطلبات الأجهزة لـ QwQ-32B

يتطلب تشغيل QwQ-32B محليًا أجهزة قوية لضمان عملية تثبيت سلسة واستنتاج فعال. فيما يلي المتطلبات الدنيا لكل منصة:

ماك

  • المعالج: يُوصى بمعالج Apple Silicon - M1 Pro أو M1 Max للأداء الأمثل.
  • ذاكرة الوصول العشوائي: حد أدنى 24 جيجابايت. (مثالي للسياقات الأكبر: الأنظمة التي تحتوي على ذاكرة موحدة 48 جيجابايت أو أكثر توفر أداءً أفضل).
  • التخزين: مساحة خالية كافية على القرص (موصى به 100 جيجابايت على الأقل لملفات النموذج والبيانات الإضافية).

ويندوز

  • المعالج: وحدة معالجة مركزية عصرية متعددة النوى مع دعم AVX2/AVX512.
  • وحدة معالجة الرسومات: للإصدارات الكمية: NVIDIA GeForce RTX 3060 (12 جيجابايت VRAM) أو أعلى.
  • للاستنتاج بدقة كاملة: يُوصى بـ NVIDIA RTX 4090 (24 جيجابايت VRAM).
  • ذاكرة الوصول العشوائي: 32 جيجابايت على الأقل لتشغيل سلس.
  • التخزين: حد أدنى 100 جيجابايت من المساحة الحرة لملفات النموذج والموارد ذات الصلة.

لينكس

  • المعالج: وحدة معالجة مركزية متعددة النوى مع دعم AVX2/AVX512. كما أن شرائح ARM متوافقة.
  • وحدة معالجة الرسومات: للإصدارات الكمية: NVIDIA RTX 3090 أو RTX 4090 (24 جيجابايت VRAM) كافية.
  • للسياقات الأكبر أو إعدادات دقة أعلى، يُوصى بوحدات معالجة الرسومات من نوع NVIDIA A6000.
  • ذاكرة الوصول العشوائي: حد أدنى 32 جيجابايت.
  • التخزين: 100 جيجابايت على الأقل من المساحة الحرة لتخزين النموذج.

كيفية تثبيت QwQ-32B على ويندوز

الخطوة 1: تنزيل وتثبيت Ollama

الخطوة الأولى هي تنزيل Ollama - برنامج مجاني يجعل تثبيتات الذكاء الاصطناعي المحلية سهلة. إليك كيف:

  1. قم بزيارة ollama.com وانقر على زر التنزيل لنظام ويندوز.
  2. قم بتشغيل ملف .exe الذي تم تنزيله. لا حاجة لحقوق المسؤول.
  3. اتبع التعليمات التي تظهر على الشاشة لتثبيت Ollama. قد يطلب منك كتابة رمز مرور جهاز الكمبيوتر الخاص بك؛ فهذا طبيعي.

الخطوة 2: افتح Terminal

بعد ذلك، افتح Terminal على جهاز ويندوز الخاص بك. يمكنك القيام بذلك عن طريق البحث عن "Terminal" في قائمة البدء. قد يبدو هذا تقنيًا بعض الشيء، لكن لا تقلق - فقط اتبع التعليمات.

الخطوة 3: تثبيت النموذج الذي اخترته

مع تثبيت Ollama، يمكنك الآن تثبيت QwQ-32B. في Terminal، اكتب الأمر:

ollama run qwq

يخبر هذا الأمر Ollama بتشغيل النسخة بدقة كاملة (FP16) من QwQ-32B. إذا كان نظامك يحتوي على ذاكرة VRAM أقل، يمكنك اختيار نسخة كمية بدلاً من ذلك:

ollama run qwq:32b-preview-q4_K_M

بعد الضغط على "Enter"، سيبدأ النموذج في التثبيت. قد يستغرق ذلك بضع ثوان. بعد التثبيت، يمكنك اختباره عن طريق طرح سؤال بسيط مثل:

> ما هو تكامل x² من 0 إلى 5؟

يجب أن يعرض Terminal الإجابة، مما يثبت أن نموذجك يعمل ويشتغل.

كيفية تثبيت QwQ-32B على macOS

الخطوة 1: افتح Terminal

بالنسبة لمستخدمي Mac، وخاصة أولئك الذين لديهم Apple Silicon، يتبعون عملية مشابهة. افتح Terminal وشغل:

ollama run qwq

تقوم هذه البرنامج النصي بتثبيت Ollama على نظام macOS الخاص بك. اتبع أي مطالبات تظهر أثناء التثبيت.

الخطوة 2: إدارة الذاكرة

بالنسبة لأجهزة Mac ذات الذاكرة العالية (48 جيجابايت أو أكثر)، يمكنك اختيار النسخة الكمية بعمق 5 بت:

ollama run qwq:32b-preview-q5_1

تم تحسين هذه النسخة للآلات التي تحتوي على إعداد ذاكرة موحدة قوية. استخدم Activity Monitor لمراقبة استخدام الذاكرة لديك أثناء الاستنتاج.

الخطوة 3: اختبار النموذج

بعد التثبيت، اختبر إعدادك عن طريق إدخال استعلام في Terminal:

> ما اسمك؟

يجب أن تتلقى إجابة من النموذج، مؤكداً أن كل شيء يعمل كما هو متوقع.

كيفية تثبيت QwQ-32B على Linux

لتثبيت وتشغيل نموذج QwQ-32B عبر Ollama على Linux، اتبع هذه الخطوات:

الخطوة 1: تثبيت Ollama

يسهل Ollama عملية الإعداد لتشغيل نماذج AI المتقدمة مثل QwQ-32B. استخدم الأمر التالي لتثبيته:

curl -fsSL https://ollama.com/install.sh | sh

الخطوة 2: بعد التثبيت، تحقق من أن Ollama مثبت بتشغيل: ollama

الخطوة 3: تحميل نموذج QwQ-32B

استخدم Ollama لتنزيل نموذج QwQ-32B. قم بتشغيل الأمر التالي:

ollama pull qwq:32b

سيقوم هذا بجلب النسخة الكمية من QwQ-32B المحسّنة للاستنتاج الفعال.

الخطوة 4. تشغيل النموذج

بمجرد تنزيل النموذج، يمكنك التفاعل معه مباشرة في المحطة. استخدم هذا الأمر لبدء تشغيل النموذج:

ollama run qwq:32b

اختياري: إعداد واجهة ويب باستخدام Docker

إذا كنت تفضل واجهة رسومية مشابهة لـ ChatGPT بدلاً من استخدام سطر الأوامر، يمكنك إعداد واجهة ويب باستخدام Docker. هذه الطريقة تقنية قليلاً ولكنها تحتاج فقط إلى القيام بها مرة واحدة.

الخطوة 1: تثبيت Docker Desktop

قم بتنزيل وتثبيت Docker Desktop من موقع Docker.

الخطوة 2: تشغيل حاوية Open WebUI

في Terminal الخاص بك، قم بتشغيل:

docker run -d -p 8080:8080 — gpus all -v ollama:/root/.ollama -v open-webui:/app/backend/data — name open-webui — restart always ghcr.io/open-webui/open-webui:main

يسحب هذا الأمر الحاوية، ويعد الوصول إلى GPU، ويضع خريطة للأحجام اللازمة. بمجرد الانتهاء، افتح متصفح الويب الخاص بك واذهب إلى http://localhost:8080. ستظهر لك واجهة مشابهة لـ ChatGPT حيث يمكنك التفاعل مع نموذجك المحلي.

بديل سحابي للأجهزة الضعيفة

إذا لم يكن جهاز الكمبيوتر الخاص بك يفي بالمواصفات المطلوبة، فكر في بديل سحابي. على سبيل المثال، يقدم NodeShift حالات GPU:

  1. قم بالتسجيل في NodeShift وأنشئ حسابًا.
  2. أطلق حالة GPU بمعالج A100 أو A6000 GPU.
  3. قم بتثبيت QwQ-32B باستخدام المثبت التلقائي:
curl -sL nodeshift.com/qwq32b-install | bash

سيقوم هذا بإعداد QwQ-32B على حالة سحابية، مما يسمح لك بتجاوز قيود الأجهزة مع الاستمرار في الاستمتاع بالتحكم شبيه المحلي.

الدقة والتخصيص الدقيق

بمجرد تشغيل نموذجك، يمكنك ضبطه ليناسب احتياجاتك. على سبيل المثال، يمكنك إنشاء نسخة مخصصة من QwQ-32B باستخدام مجموعة بياناتك الخاصة:

ollama create qwq-custom -f Modelfile

للحصول على المزيد من الإرشادات، استكشف مستودع Hugging Face الرسمي من Alibaba حيث ستجد تكوينات نموذجية ومساهمات من المجتمع.

جمع كل شيء معًا

تشغيل QwQ-32B محليًا هو أكثر من مجرد تمرين تقني - إنه بوابة لاستغلال AI بمستوى المؤسسات على أجهزتك الخاصة. لقد غطت هذه الدليل الأساسيات لنظامي Windows وmacOS وLinux، إلى جانب نصائح حول كيفية إعداد واجهة ويب وبدائل سحابية لأولئك الذين ليس لديهم أجهزة عالية الأداء.

تخيل حرية تشغيل نماذج الذكاء الاصطناعي في وضع عدم الاتصال، وتحليل مستنداتك الخاصة بشكل خاص، وتجربة نماذج مختلفة جميعها من جهازك المحلي. وتذكر، يمكن استخدام نفس العملية البسيطة لتثبيت أي نموذج متاح على Ollama. سواء كنت تعمل مع QwQ-32B أو Llama 3 أو Mistol أو أي نموذج آخر، تظل الخطوات متشابهة بشكل ملحوظ.

إذا كنت متحمسًا لتجربة هذه الإمكانيات المثيرة، فلا تنسَ استكشاف Anakin AI. مع الوصول إلى مجموعة كاملة من النماذج المتقدمة مثل QwQ-32B وDeepSeek-R1 وGPT-4o وClause 3.7 والمزيد، يُعتبر Anakin AI هو مركزك النهائي للابتكار المتطور في مجال الذكاء الاصطناعي.

كلمة أخيرة: احتضان قوة الذكاء الاصطناعي المحلي

مع تقدمنا في عام 2025، يتطور مشهد الذكاء الاصطناعي بسرعة. إن تشغيل نماذج مثل QwQ-32B محليًا يمنحك الخصوصية وتوفير التكاليف وحرية الابتكار دون قيود. سواء كنت مطورًا متقدمًا أو مجرد مبتدئ، فإن إعداد بيئة AI محلية خاصة بك يفتح عالمًا من الإمكانيات الإبداعية.

فلماذا الانتظار؟ قم بالقفز، اتبع هذا الدليل، وثبت QwQ-32B على جهاز الكمبيوتر الخاص بك اليوم. وإذا كنت فضوليًا لاستكشاف مجموعة أوسع من نماذج الذكاء الاصطناعي، فإن Anakin AI في انتظارك - مع مجموعة من الأدوات القوية جاهزة لتحويل أفكارك إلى حقيقة.

تجربة سعيدة، وإليك أطيب التمنيات بمستقبل يكون فيه الذكاء الاصطناعي المتقدم متاحًا للجميع - من راحة منزلك!