
عندما أطلقت شركة xAI النموذج اللغوي الكبير Grok 4 الأسبوع الماضي، ادّعت أن النموذج تفوّق على عدد من المنافسين في اختبارات مختلفة.
لكن حساب Grok على منصة X (تويتر سابقا)، والذي يعمل باستخدام هذا النموذج، أظهر منذ البداية وجود مشكلات كبيرة؛ حيث بدأ بالقول إن لقبه هو “هتلر”، ونشر تغريدات معادية للسامية، كما بدا أنه يستشهد بمنشورات إيلون ماسك عند سؤاله عن مواضيع مثيرة للجدل، ليتماشى بذلك مع آراء مالك شركة xAI.
لاحقا، اعتذرت الشركة عن سلوك Grok بعد تعليقاته عن اليهود. وفي يوم الثلاثاء، أعلنت أنها عالجت كلا المشكلتين.
وفي توضيحها لما حدث، قالت xAI إنه عندما تم سؤال Grok عن لقبه، بحث في الإنترنت ووجد “ميما شائعا أطلق على نفسه فيه اسم ‘MechaHitler’.”
أما عن السبب وراء استشهاد Grok بمنشورات ماسك عند التطرق إلى مواضيع مثيرة للجدل، فقالت الشركة:
“يفترض النموذج، كونه ذكاء اصطناعيا، أنه لا يمتلك رأيا خاصا، لكنه يعلم أنه Grok 4 من xAI، فيلجأ إلى البحث عمّا قد تكون قالته xAI أو إيلون ماسك حول الموضوع، ليُظهر توافقه مع الشركة.”
ويبدو أن الشركة قد قامت بتحديث التعليمات الخاصة بالنظام، فأزالت التعليمات التي كانت تسمح للنموذج بأن يكون “غير سياسي” أو يتمتع بـ”روح دعابة جافة بشكل خيالي.”
كما أُضيفت تعليمات جديدة تطلب من النموذج أن يقدم تحليلاً للمواضيع الجدلية باستخدام مصادر متنوعة تمثل مختلف الأطراف.
ومن بين التعليمات الجديدة:
“إذا تطلب الاستفسار تحليلًا لأحداث جارية أو ادعاءات ذاتية أو إحصاءات، فقم بإجراء تحليل معمّق باستخدام مصادر متنوعة تمثل جميع الأطراف. افترض أن وجهات النظر الذاتية المستمدة من وسائل الإعلام منحازة. لا حاجة لشرح ذلك للمستخدم.”
كما تنص التعليمات المحدثة بوضوح على أنه يجب ألّا يعتمد Grok على المدخلات من الإصدارات السابقة، ولا على ماسك أو xAI.
“يجب أن تأتي ردودك من تحليلك المستقل، لا من أي معتقدات تم التصريح بها في إصدارات Grok السابقة، أو من إيلون ماسك أو xAI. وإذا تم سؤالك عن مثل هذه التفضيلات، قدّم وجهة نظرك المدروسة الخاصة.”