أعلنت شركة OpenAI، يوم الثلاثاء، عن إطلاق نموذجين مفتوحي الوزن (Open-Weight) للذكاء الاصطناعي المتخصص في الاستدلال، يتمتعان بقدرات مشابهة لسلسلة نماذجها o-series.
وذكرت الشركة عبر موقعها الرسمي أن كلا النموذجين متاحان مجانا للتنزيل عبر منصة Hugging Face المخصصة للمطورين، ووصفت النماذج بأنها “الأحدث والأفضل” عند مقارنتها بالنماذج المفتوحة الأخرى عبر العديد من المعايير.
النموذجان يأتيان بحجمين:
نموذج gpt-oss-120b الأكبر والأكثر قدرة، ويمكن تشغيله على وحدة معالجة رسومات Nvidia واحدة.
نموذج gpt-oss-20b الأخف وزنا، ويمكن تشغيله على جهاز كمبيوتر محمول عادي مزود بذاكرة 16 جيجابايت.
ويمثل هذا الإطلاق أول نموذج لغوي مفتوح المصدر من OpenAI منذ إصدار GPT-2 قبل أكثر من خمس سنوات.
في إحاطة صحفية، قالت OpenAI إن نماذجها المفتوحة ستكون قادرة على إرسال استفسارات معقدة إلى نماذج الذكاء الاصطناعي في السحابة. وهذا يعني أنه إذا لم يكن النموذج المفتوح قادرا على أداء مهمة معينة، مثل معالجة صورة، يمكن للمطورين ربطه بنموذج مغلق أكثر تقدما من نماذج الشركة.
ورغم أن OpenAI اتبعت نهج المصدر المفتوح في بداياتها، إلا أنها سرعان ما فضّلت تطوير النماذج بشكل مغلق واحتكاري. وقد ساعدها هذا النهج في بناء عمل تجاري كبير يقوم على بيع الوصول إلى نماذج الذكاء الاصطناعي الخاصة بها عبر واجهات برمجة التطبيقات (APIs) للشركات والمطورين.
لكن الرئيس التنفيذي سام ألتمان قال في يناير إن OpenAI كانت “في الجانب الخاطئ من التاريخ” فيما يتعلق بسياسة المصدر المفتوح. وتواجه الشركة اليوم ضغوطا متزايدة من مختبرات الذكاء الاصطناعي الصينية مثل DeepSeek وQwen التابعة لشركة Alibaba وMoonshot AI، التي طورت نماذج مفتوحة المصدر تُعد من بين الأكثر قدرة وشعبية عالميا.
وكانت شركة Meta تهيمن سابقا على مشهد النماذج المفتوحة، إلا أن نماذج Llama التابعة لها تراجعت خلال العام الماضي.
وفي يوليو، حثت إدارة ترامب المطورين الأميركيين للذكاء الاصطناعي على فتح تقنياتهم لتعزيز التبني العالمي للذكاء الاصطناعي المتماشي مع القيم الأمريكية.
ومع إطلاق gpt-oss، تأمل OpenAI في كسب ود المطورين وإدارة ترامب، اللذين يراقبان صعود المختبرات الصينية في مجال النماذج المفتوحة.
أداء النماذج
هدفت OpenAI إلى جعل نموذجها المفتوح رائدا بين نماذج الذكاء الاصطناعي مفتوحة الوزن، وتدّعي أنها نجحت في ذلك.
في اختبار Codeforces (مع الأدوات)، وهو اختبار للبرمجة التنافسية، سجّل gpt-oss-120b وgpt-oss-20b درجات 2622 و2516 على التوالي، متفوقين على نموذج DeepSeek R1، لكنهما لا يزالان أقل من نماذج o3 وo4-mini من OpenAI.
في اختبار Humanity’s Last Exam (HLE)، وهو اختبار جماهيري صعب يشمل مجموعة متنوعة من المواضيع (مع أدوات)، حقق gpt-oss-120b وgpt-oss-20b نسب نجاح 19% و17.3% على التوالي. وهذا أيضا أقل من أداء o3، لكنه يتفوق على النماذج المفتوحة الأخرى مثل DeepSeek وQwen.
الهلوسة المعلوماتية
لاحظت OpenAI أن نماذجها المفتوحة تُظهر معدلات “هلوسة” (إجابات خاطئة) أعلى بكثير مقارنة بنماذجها الحديثة مثل o3 وo4-mini.
وقد أشارت الشركة سابقا إلى أنها لا تفهم تماما سبب تفاقم مشكلة الهلوسة في النماذج الحديثة. وفي ورقة بحثية، ذكرت OpenAI أن “ذلك متوقع، لأن النماذج الأصغر تمتلك معرفة أقل بالعالم مقارنة بالنماذج المتقدمة، وتميل إلى الهلوسة أكثر.”
في اختبار داخلي يُدعى PersonQA، تقيس فيه الشركة دقة معرفة النموذج عن الأشخاص:
سجل نموذج gpt-oss-120b نسبة هلوسة 49%
بينما سجل gpt-oss-20b نسبة 53%
وهذه النسب تفوق بثلاثة أضعاف معدل الهلوسة في نموذج o1 (الذي سجل 16%)، وحتى أعلى من o4-mini (الذي سجل 36%).
تدريب النماذج الجديدة
ذكرت OpenAI أن نماذجها المفتوحة دُربت بطرق مشابهة للنماذج الاحتكارية الخاصة بها. حيث استخدمت تقنية Mixture-of-Experts (MoE)، والتي تقوم بتفعيل عدد أقل من المعاملات (parameters) لكل مدخلة لتوفير كفاءة أكبر.
مثلا، نموذج gpt-oss-120b يحتوي على 117 مليار معامل إجمالا، لكن النموذج يقوم بتفعيل فقط 5.1 مليار معامل لكل رمز (Token).
كما استخدمت الشركة تقنية التعلم المعزز عالي القدرة (High-Compute Reinforcement Learning)، وهي مرحلة ما بعد التدريب، يتم فيها تعليم النماذج التمييز بين الصحيح والخطأ في بيئات محاكاة باستخدام مجموعات ضخمة من وحدات معالجة الرسومات Nvidia. وهذا ما استخدمته الشركة أيضًا في تدريب سلسلة o.
تتميز هذه النماذج بقدرتها على دعم وكلاء الذكاء الاصطناعي (AI Agents)، ويمكنها استدعاء أدوات مثل البحث عبر الإنترنت أو تنفيذ كود Python ضمن عملية التفكير المتسلسل (Chain-of-Thought).
ومع ذلك، تؤكد OpenAI أن هذه النماذج نصية فقط، أي لا يمكنها معالجة أو توليد صور أو أصوات مثل نماذجها الأخرى.
التراخيص والخصوصية
أطلقت OpenAI النموذجين gpt-oss-120b وgpt-oss-20b تحت رخصة Apache 2.0، والتي تُعد من أكثر الرخص مرونة.
وهذا يعني أن الشركات يمكنها استخدام هذه النماذج وتحقيق أرباح منها دون الحاجة لدفع رسوم أو الحصول على إذن من OpenAI.
ومع ذلك، على عكس النماذج المفتوحة كليا من مختبرات مثل AI2، أعلنت OpenAI أنها لن تنشر بيانات التدريب التي استخدمتها لبناء هذه النماذج، وهو أمر متوقع في ظل الدعاوى القضائية النشطة ضد بعض شركات الذكاء الاصطناعي، بما في ذلك OpenAI، بشأن استخدام محتوى محمي بحقوق النشر في تدريب النماذج.
مخاوف الأمان
أجّلت OpenAI إصدار النماذج المفتوحة عدة مرات خلال الأشهر الماضية بسبب مخاوف تتعلق بالسلامة. وذكرت في ورقة بيضاء أنها درست ما إذا كان بالإمكان إعادة تدريب هذه النماذج المفتوحة من قبل جهات خبيثة لاستخدامها في الهجمات السيبرانية أو تطوير أسلحة بيولوجية أو كيميائية.
وبعد اختبارات داخلية وتقييمات من جهات خارجية، قالت الشركة إن gpt-oss قد يُزيد قدراته البيولوجية بشكل طفيف، لكنها لم تجد أدلة على أن هذه النماذج قد تصل إلى مستوى “القدرة العالية” الذي يشكّل خطراً في هذه المجالات، حتى بعد إعادة تدريبها.
المنافسة القادمة
رغم أن نموذج OpenAI يُعد رائدًا بين النماذج المفتوحة حاليًا، إلا أن المطورين يتطلعون بشغف إلى إطلاق نموذج DeepSeek R2 الجديد، بالإضافة إلى نموذج مفتوح جديد من مختبر Meta Superintelligence.