
تقوم شركة OpenAI بتحديث نموذج الذكاء الاصطناعي الذي يُشغّل “Operator”، وهو وكيل ذكي يمكنه تصفح الإنترنت واستخدام بعض البرمجيات بشكل مستقل داخل جهاز افتراضي مستضاف على السحابة لتنفيذ طلبات المستخدمين.
قريبًا، سيعتمد “Operator” على نموذج مبني على o3، وهو أحد أحدث النماذج ضمن سلسلة “o” التي تركز على مهام الاستدلال العقلي. في السابق، كان “Operator” يعتمد على نسخة مخصصة من GPT-4o.
وبحسب العديد من معايير القياس، يُعتبر نموذج o3 أكثر تقدمًا بشكل ملحوظ، خصوصًا في المهام التي تتطلب الرياضيات والاستنتاج المنطقي.
وكتبت OpenAI في منشور على مدونتها:
“نقوم باستبدال النموذج الحالي المبني على GPT-4o في Operator بنسخة مبنية على OpenAI o3″،
وأضافت أن النسخة المتوفرة عبر API ستبقى معتمدة على GPT-4o.
ويُعد “Operator” واحدًا من العديد من الأدوات الذكية التي أطلقتها شركات الذكاء الاصطناعي مؤخرًا، في سباق محموم لتطوير وكلاء ذكيين يمكنهم تنفيذ المهام بدون إشراف بشري مباشر.
فعلى سبيل المثال، تقدم Google عبر Gemini API وكيلًا يستخدم الحاسوب يمكنه تصفح الإنترنت واتخاذ إجراءات نيابة عن المستخدمين، بالإضافة إلى أداة استهلاكية موجهة تُدعى Mariner. كما أن نماذج شركة Anthropic قادرة أيضًا على تنفيذ مهام حاسوبية مثل فتح الملفات وتصفح المواقع.
ووفقًا لـ OpenAI، تم تدريب النموذج الجديد o3 Operator باستخدام بيانات إضافية تتعلق بالأمان عند استخدام الحاسوب، بما في ذلك مجموعات بيانات تهدف إلى “تعليم النموذج حدود اتخاذ القرار الخاصة بـ OpenAI بشأن التأكيد أو الرفض”.
وقد نشرت الشركة تقريرًا تقنيًا يوضح أداء النموذج في اختبارات الأمان المحددة. ووفقًا لهذا التقرير، فإن o3 Operator أقل احتمالًا من نموذج GPT-4o في تنفيذ أنشطة غير مشروعة أو البحث عن معلومات شخصية حساسة، كما أنه أقل عرضة لهجمات “حقن الأوامر” (Prompt Injection).
وأضافت OpenAI:
“يستخدم o3 Operator نفس النهج متعدد الطبقات للأمان الذي استخدمناه مع نسخة GPT-4o من Operator”،
وأشارت إلى أن النموذج، رغم أنه يرث قدرات البرمجة من o3، لا يمتلك وصولًا مباشرًا إلى بيئة تطوير أو سطر أوامر (Terminal).