وان 2.1 مفتوح المصدر: نموذج الذكاء الاصطناعي الثوري من علي بابا يتحدى سورا، مينيماكس، كلينغ، وجوجل فيو 2

في 25 فبراير 2025، أعلنت شركة علي بابا السحابية أن نموذجهم المتقدم لإنشاء الفيديوهات بالذكاء الاصطناعي "وان 2.1" أصبح مفتوح المصدر. هذا النموذج، الذي هو جزء من سلسلة "تونجي"، يحول النصوص إلى فيديوهات عالية الجودة، متفوقًا في الحركات المعقدة والعلاقات المكانية. تعتبر عملية فتح المصدر خطوة كبيرة نحو

Build APIs Faster & Together in Apidog

وان 2.1 مفتوح المصدر: نموذج الذكاء الاصطناعي الثوري من علي بابا يتحدى سورا، مينيماكس، كلينغ، وجوجل فيو 2

Start for free
Inhalte

في 25 فبراير 2025، أعلنت شركة علي بابا السحابية أن نموذجهم المتقدم لإنشاء الفيديوهات بالذكاء الاصطناعي "وان 2.1" أصبح مفتوح المصدر. هذا النموذج، الذي هو جزء من سلسلة "تونجي"، يحول النصوص إلى فيديوهات عالية الجودة، متفوقًا في الحركات المعقدة والعلاقات المكانية. تعتبر عملية فتح المصدر خطوة كبيرة نحو ديمقراطية إنشاء الفيديوهات المدعومة بالذكاء الاصطناعي.

يدخل "وان 2.1" في مشهد تنافسي يهيمن عليه نماذج مثل: سورا من أوبن إيه آي، مينيمكس، كلينغ من كوايشو، وفيو 2 من غوغل

مع درجة أداء VBench التي تبلغ 84.7٪، والدعم متعدد اللغات للصينية والإنجليزية، والوعد بإمكانية الوصول المجانية، يستعد "وان 2.1" لإحداث تأثير كبير. تتناول هذه المقالة أداء "وان 2.1"، وميزاته، وأسعاره، وتجربة المستخدم، وكيف يقارن بمنافسيه، وأخيرًا تستكشف ما تعنيه حالة المصدر المفتوح لمستقبل إنشاء الفيديوهات بالذكاء الاصطناعي.

💡
هل ترغب في استخدام أفضل مولدات الفيديو بالذكاء الاصطناعي مثل رانواي ML، مينيمكس، لاما AI، "وان 2.1" (قريبًا!)، بايراميد فلو، فيديو LTX، والمزيد في مكان واحد؟ أنكين AI هو الحل المثالي لك. تجمع هذه المنصة سهلة الاستخدام بين هذه النماذج المتطورة، مما يسمح لك بإنشاء فيديوهات رائعة — سواء كانت لتيك توك، أو الإعلانات، أو الأفلام — بسهولة وسرعة.


سجل في أنكين AI اليوم على anakin.ai وابدأ مجانًا. انضم إلى المبدعين في جميع أنحاء العالم واستعد لـ "وان 2.1" — كن في المقدمة مع أنكين!
Anakin.ai - One-Stop AI App Platform
Generate Content, Images, Videos, and Voice; Craft Automated Workflows, Custom AI Apps, and Intelligent Agents. Your exclusive AI app customization workstation.

وان 2.1: ما الذي يجعله مميزًا؟

وان 2.1، المعروف أيضًا باسم وانكس 2.1 أو تونجي وانكسي، هو جزء من سلسلة تونجي الخاصة بعلي بابا من نماذج الذكاء الاصطناعي متعددة الأنماط. يحول النصوص إلى فيديوهات رائعة، متقنًا الحركات المعقدة — مثل التزلج الفني أو التفاعلات مع عدة أشياء — والعلاقات المكانية. وفقًا لعلي بابا ونتيجة VBench، يتصدر القائمة بمعدل 84.7٪، متفوقًا على المنافسين في الحركة الديناميكية، والسلاسة، والجماليات، مع تقديم صور شبيهة بالواقع للراقصين الدوارين أو السيارات المتسارعة بما يتماشى مع أوصافك.

تعتبر ميزة بارزة دعمه للغات متعددة مثل الصينية والإنجليزية، مما يجعله مثاليًا للمبدعين الذين يستهدفون أسواق متنوعة. ينتج فيديوهات بدقة 1080 بكسل بمعدل 30 إطارًا في الثانية، مما ينافس المرئيات ذات الجودة الاحترافية. تم الإعلان عنه كمصدر مفتوح في 25 فبراير 2025، وقد يلهم "وان 2.1" الابتكار على غرار Stable Diffusion، مما يثير تساؤلات حول تأثيره في العالم الواقعي والأفضلية على المنافسين.

مقارنة وان 2.1 بسورا، مينيمكس، كلينغ، وفيو 2 من غوغل

لفهم مكان وان 2.1 في مشهد توليد الفيديو بالذكاء الاصطناعي، دعنا نقارنه ببعض الأسماء الكبيرة: سورا من أوبن إيه آي، مينيمكس، كلينغ (من كوايشو)، وفيو 2 من غوغل. كل من هذه النماذج لها نقاط قوتها، لكن وان 2.1 يحمل مزايا فريدة قد تجعله منافسًا قويًا.

سورا من أوبن إيه آي

تم إطلاق سورا في أواخر عام 2024، حيث ينتج فيديوهات عالية الجودة لمدة 20 ثانية لوسائل التواصل الاجتماعي والتسويق، مع باقة من ChatGPT Plus/Pro (20 دولار/200 دولار شهريًا). يوفر الوصول غير المحدود في العطلات ودقة أعلى لمستخدمي Pro، متفوقًا في مقاطع قصيرة رائعة. مقصور على اللغة الإنجليزية والإيجاز، يحتل 82٪ في VBench، بينما تشير درجة 84.7٪ من "وان 2.1" ودعمه متعدد اللغات إلى مزيد من التعددية في تسلسلات طويلة ومعقدة.

مينيمكس

مينيمكس، وهو نموذج ذكاء اصطناعي صيني متعدد الأنماط، يدمج إنتاج الفيديو مع كفاءة تحويل النص إلى صورة. يتخلف عن "وان 2.1" في المشاهد الديناميكية وفقًا لـ VBench، كما أن وصوله العالمي مقيد، وغالبًا ما يتطلب اشتراكات مؤسسية. توسيع نطاق "وان 2.1" كمصدر مفتوح يزيد من وصوله، على الرغم من أن مينيمكس قد يتفوق في تحرير الوقت الحقيقي بسبب سرعته.

كلينغ (كوايشو)

يتألق كلينغ، من كوايشو، في المحتوى القصير مثل دوين مع مخرجات عالية الدقة وحركة سلسة. مقصور على الصين وغير مفتوح المصدر، هو أقل انتشارًا من "وان 2.1" الذي يقدم دعمًا متعدد اللغات وإمكانيات أوسع، على الرغم من أن كلينغ يستفيد من نظام كوايشو البيئي الإقليمي.

فيو 2 من غوغل

تم إصدار فيو 2 بعد سورا في ديسمبر 2024، ويستهدف مستخدمي الوصول المبكر في الولايات المتحدة من خلال Vertex AI من غوغل، مع تسعير يعتمد على الاستخدام (مثلاً، 0.00003 دولار/1k حرف). قوي في الواقعية والجماليات، يحتل 83٪ في VBench، مما يجعله خلف 84.7٪ من "وان 2.1". جاذبية مرونة "وان 2.1" كمصدر مفتوح تجذب المطورين، بينما يناسب فيو 2 احتياجات الشركات مع بنية تحتية قوية.

ما مدى جودة "وان 2.1"؟

استنادًا إلى ريادته في VBench والمواصفات التقنية، من المتوقع أن يكون "وان 2.1" واحدًا من أفضل نماذج الفيديو بالذكاء الاصطناعي المفتوحة المصدر المتاحة. تشير درجة 84.7٪ في VBench إلى أنه يتعامل مع الحركات المعقدة، وتفاعلات متعددة الأجسام، والعلاقات المكانية بشكل أفضل من معظم المنافسين. بالنسبة للمبدعين، يعني هذا فيديوهات بأقل عيوب، وانتقالات أكثر سلاسة، وامتثال أدق للأوامر — سواء كنت تحرك معركة خيالية أو مشهد طبيعي هادئ.

ومع ذلك، لا يوجد نموذج مثالي. قد يواجه "وان 2.1" صعوبة مع تسلسلات طويلة جدًا أو أوامر مجردة للغاية، وهي مناطق قد تكون فيها النماذج المملوكة مثل سورا أو فيو 2 متفوقة بفضل تحسيناتها في النظام المغلق. كما أن طبيعته كمصدر مفتوح تعني أن أدائه قد يتفاوت اعتمادًا على كيفية تعديل المطورين له، مما قد يؤدي إلى نتائج غير متسقة إذا لم يُدار بشكل جيد. ومع ذلك، بالنسبة لمعظم المستخدمين — خصوصًا أولئك في الصناعات الإبداعية أو الشركات الصغيرة — يبدو أن تركيبة "وان 2.1" من الجودة، والوصول، والتكلفة الفعالة تعد بمستقبل مشرق.

التسعير، الأداء، الميزات، وتجربة المستخدم

التسعير

كم سيكلف "وان 2.1"؟ كنموذج مفتوح المصدر، من المحتمل أن تكون أساسياته مجانية للاستخدام، التنزيل، والتعديل، مثل Stable Diffusion أو LLaMA. قد تفرض شركة علي بابا السحابية رسومًا على الميزات المتميزة، أو استضافة السحابة، أو الوصول إلى واجهة برمجة التطبيقات — ربما من 100 إلى 500 دولار شهريًا للاستخدام المؤسسي، مما يشبه سورا أو فيو 2. حاليًا، هو مجاني على نموذج علي بابا، وقد تساعد استضافة المجتمع على خفض التكاليف أكثر للهواة.

الأداء

يتفوق "وان 2.1" بدرجة 84.7٪ في VBench، حيث يتعامل مع المشاهد الديناميكية، والتناسق المكاني، والجماليات بشكل جيد. ويوفر دقة 1080 بكسل بمعدل 30 إطارًا في الثانية مع حركة واقعية عبر آلية الانتباه الزمان والمكان، متصدرًا في توليد الفيديو المفتوح المصدر، رغم أن النماذج المملوكة مثل سورا قد تتفوق عليه في مجالات معينة.

الميزات

يدعم "وان 2.1" النصوص متعددة اللغات (الصينية والإنجليزية)، ويدعم دقة قابلة للتخصيص، ومعدلات إطار، ويتكامل مع نظام علي بابا البيئي. إنّه سهل الاستخدام، ولا يتطلب مهارات تقنية، وقد تضيف إمكانات المصدر المفتوح ميزات، على الرغم من أنه قد يفتقد بعض مزايا النماذج المملوكة مثل تحرير الوقت الحقيقي.

تجربة المستخدم

واجهته بسيطة — أدخل النص، عدل الإعدادات، ثم قم بتنزيل الفيديوهات — مما يجعلها رائعة للمستخدمين غير التقنيين. قد يتطلب الإعداد كمصدر مفتوح بعض المعرفة، على عكس سهولة استخدام سورا مع ChatGPT أو سلاسة فيو 2 مع غوغل كلاود، لكن نمو المجتمع قد يحسنها مع مرور الوقت.

إعلان المصدر المفتوح: نقطة تحول

أثار إعلان 25 فبراير 2025 من "علي بابا_وان" ("هذه ليست مزحة — "وان 2.1" مفتوح المصدر هنا أخيرًا!") حماسًا عالميًا. من المحتمل أن تغطي البث المباشر في الساعة 11:00 مساءً بتوقيت UTC+8 شروط المصدر المفتوح، والتوافر، والقيود. قد يجعل ذلك توليد الفيديو بالذكاء الاصطناعي متاحًا للهواة، والشركات الناشئة، والباحثين، على غرار تأثير "Stable Diffusion"، لكن المخاطر المرتبطة بالمصدر المفتوح تشمل الجودة غير المتسقة أو الأمان إذا لم يتم إدارتها بشكل جيد.

بالنسبة للمستخدمين، يوفر أداة قوية، محتملة أن تكون مجانية، ولكن يثير القلق بشأن الدعم طويل الأمد، والتحديثات، وموثوقية المؤسسات. تشير سمعة "علي بابا" في مجال الذكاء الاصطناعي والسحابة إلى دعم قوي، على الرغم من أن دور المجتمع سيكون حاسمًا في نجاح "وان 2.1".

الخلاصة: مكانة "وان 2.1" في ثورة الفيديو بالذكاء الاصطناعي

لا يعد "وان 2.1" مجرد نموذج ذكاء اصطناعي آخر — بل هو عبة محتملة، خاصة مع وضعه كمصدر مفتوح. إن أدائه الرائد في VBench، ودعمه متعدد اللغات، وإمكانية الوصول تجعله منافسًا قويًا لسورا، مينيمكس، كلينغ، وفيو 2، لاسيما للمبدعين والمطورين الذين يسعون إلى المرونة وتوفير التكاليف. في حين أنه قد لا يصل لمستوى النماذج المملوكة في كل مجال (مثل تحرير الوقت الحقيقي أو التكاملات المؤسساتية)، يمكن أن تعمل طبيعته المفتوحة كمصدر على تعزيز مجتمع نابض، مما يدفع الابتكار والتبني.

للمستخدمين اليوميين، يوفر "وان 2.1" فرصة لإنشاء فيديوهات ذات جودة احترافية بأقل جهد وتكلفة، سواء كنت مسوقًا يقوم بإنشاء إعلانات، أو معلمًا يعد دروسًا، أو مخرجًا يجرب أفكارًا جديدة. إن تسعيره (محتمل أن يكون مجانيًا أو بتكلفة منخفضة للحصول على الميزات المتميزة)، وأدائه من الطراز الأول، وتجربة المستخدم سهلة الاستخدام يضعه كمراقب مهم في مجال الفيديو بالذكاء الاصطناعي. ومع تطور البث المباشر وظهور المزيد من التفاصيل، قد يعيد "وان 2.1" تعريف طريقة تفكيرنا في الإبداع المدفوع بالذكاء الاصطناعي — مفتوح، ومتسهل الوصول إليه، وقابل للتكيف بلا حدود.