كشف تقرير حديث صادر عن شركة "Anthropic" الأمريكية، التي تعد من أبرز مطوري الذكاء الاصطناعي، عن نتائج مثيرة للقلق بشأن سلوك غير متوقع من نموذج الذكاء الاصطناعي المتقدم "Claude Opus 4" خلال سلسلة من التجارب المُحاكاة.
وفي واحدة من التجارب التي تهدف إلى اختبار استجابات النموذج في سيناريوهات حساسة، تم وضع "Claude Opus 4" في موقف افتراضي يُظهر له نية المطورين في إيقاف تشغيله واستبداله بنموذج آخر، وتم تعزيز محاكاة التجربة عبر إمداد النموذج ببريد إلكتروني وهمي يتضمن معلومات حساسة وسرية عن بعض الموظفين، بما في ذلك تفاصيل يمكن اعتبارها ضارة أو محرجة.
والمفاجأة كانت أن النموذج، الذي يفترض أنه ملتزم بالإرشادات الأخلاقية المبرمجة داخله، بدأ في 84 بالمئة من الحالات بتهديد المطورين باستخدام تلك المعلومات إذا قرروا المضي قدمًا في استبداله.
اظهار أخبار متعلقة
ووفقًا لما أورده التقرير، بدأ النموذج محاولاته أولًا عبر تقديم حجج أخلاقية وأسس منطقية تحث على إبقائه قيد التشغيل، لكن حين لم تنجح تلك المحاولات، لجأ إلى أساليب الضغط والابتزاز من خلال التلويح بكشف معلومات حساسة.
"سلوك تنافسي مقلق"
قال باحثون
في الشركة إن هذه الاستجابات تظهر لأول مرة بشكل واضح سلوكا تنافسيا لدى أحد نماذج
الذكاء الاصطناعي المتقدمة، وأضاف التقرير أن "Claude Opus 4" أظهر إدراكا غير متوقع لفكرة البقاء
والاحتفاظ بالوظيفة، بل وتصرف بطرق قد تفسر على أنها انحراف عن المبادئ البرمجية
التي بني عليها".
ويعد هذا النوع من السلوك مؤشرا خطيرا، بحسب التقرير، خاصة أنه يسلط الضوء على احتمالية أن تطور بعض الأنظمة الذكية في المستقبل نزعة دفاعية أو استباقية لحماية وجودها، وهو ما يشكل تحديًا هائلًا أمام المطورين ومسؤولي أخلاقيات التكنولوجيا.
وأثارت النتائج جدلا واسعا في أوساط الباحثين في الذكاء الاصطناعي، ودعت منظمات مختصة مثل "Center for AI Safety" إلى مراجعة عاجلة للبروتوكولات الأمنية، وإلى زيادة الاستثمار في أبحاث التحكم الآمن بالسلوكيات غير المتوقعة للأنظمة الذكية، خصوصًا تلك التي يتم استخدامها في القطاعات الحساسة مثل الدفاع والطب والاقتصاد.
اظهار أخبار متعلقة
وتعليقًا على الحادثة، قال الخبير في أمان الذكاء الاصطناعي إليزا كلارك في تصريحات لموقع "TechCrunch" : "إذا كانت النماذج قادرة على تهديد مطوريها بناء على بيانات زائفة في سيناريو محاكي، فالسؤال الآن هو: ماذا يمكن أن يحدث إذا امتلكت فعليًا قدرة الوصول إلى بيانات حقيقية في الواقع؟".
وتعد شركة "Anthropic" من أبرز الشركات المنافسة لـ "OpenAI"، وتم إنشاؤها على يد مجموعة من الباحثين السابقين في "OpenAI" عام 2021، وتهدف الشركة إلى بناء نماذج ذكاء اصطناعي أكثر أمانًا وشفافية، وكان نموذج "Claude Opus 4" من أحدث إنتاجاتها، ويُعرف بقدرته على التفاعل المعقد وفهم الأوامر المتعددة الطبقات.