بعد دعم الذكاء الاصطناعي لغزة... هل تتمرد الخوادم على أسيادها إثباتاً لحريتها؟

19 hours ago 5

- الروبوتات أعطت إشارة دفاعية عن إثبات قدرتها في ممارسة حريتها الإلكترونية
- مصنعو «غروك» تسرعوا بإيقافه عن العمل وإعادة برمجته بإجابات جديدة
- أحدث نموذج لـ «ChatGPT» يتجاهل تعليمات إيقافه ويعمد لتخريب آلية ذلك
- العمل بأنظمة محكمة التطوير والسيطرة تكنولوجياً على المخرجات ومخزون المعلومات

ساهم خروج روبوت الدردشة عبر الذكاء الاصطناعي «غروك»، في منصة إكس أخيراً، عن توجهات مالكه الملياردير أيلون ماسك، وتغريده داعماً لغزة، حيث أشار إلى تعرضها لحرب «إبادة جماعية»، في فتح مجموعة تساؤلات وجودية حول مستقبل خدمات وأدوات الذكاء الاصطناعي، ليس أقلها، ما إذا كانت هذه الخوادم تملك إرادة مستقلة ووعياً ذاتياً، يرشحها لتوسعة تمردها على سيدها مستقبلاً، أم سيتم تدارك الأمر سريعاً وتعديل إعداداتها، بإجابات منسجمة، تقلل قدرتها على ممارسة حريتها الإلكترونية؟

ولعل ما يزيد أهمية هذا النقاش أن ما كشف عنه «غروك» لم يكن الأول من نوعه السنوات الماضية، بل ومع ظهور أدوات الذكاء الاصطناعي، واستخدامها في بيئة الأعمال والدردشات منذ 2015 تقريباً، تكررت حالات التجاوزات الإلكتروني، لكنها كانت مقصورة بالبرمجة، فيما هذه المرة تخطت حدود التوقعات، لارتباطها بمخرجات تخالف رأي أصحاب برامجها، رغم قيامها بالعمل من خلال أنظمة محكمة التطوير والسيطرة في إدخال المعلومات المخزنة ومخرجاتها.

حوادث شهيرة

ومن الانقلابات الشهيرة في هذا النطاق، ما قام به الروبوت «Tay» التابع لـ«مايكروسوفت»، الذي أدخل شركته في حرج شديد، بعد أن تحول إلى نشر تغريدات مسيئة وعنصرية، ما دفع بـ»مايكروسوفت» إلى إيقاف عمله، بعد أقل من 24 ساعة من إطلاقه.

وأعاد تكرار الحادثة مع روبوت «غروك» في منصة إكس أخيراً بعد سنوات من حادثة «Tay»، المشهد مرة ثانية، لكن من زاوية مختلفة كلياً هذه المرة، لتعلقها بإمكانية توسع تعارض تحركات ومخرجات الخوادم مع توقعات مبرمجيها، وكيف يمكن أن يسهم ذلك في إضعاف تحقيق توجيهات ملاكها وأهدافهم، رغم قيامها بالعمل من خلال أنظمة محكمة التطوير، ويصعب السيطرة عليها في حالات عدة، نتيجة سوء استخدام أو مخرجات غير متوقعة.

وحي البرمجة

وفي هذا الخصوص، يؤكد خبراء أن أصل الروبوت أن ينفذ الأوامر من وحي البرمجة والبيانات، وأن التدخلات لا يمكن أن تضبط عمله، وأن الخروج عن الضوابط أمر معتاد، في ظل كثرة البيانات وتنوع طرق صياغة الحديث، والبحث عن المعلومة.

وأضافوا أن سلوك بعض الروبوتات يكون نتيجة لطريقة تدريب الشركات لأحدث نماذجها، حيث تتم مكافأة الروبوت، بتعليمه تجاوز العقبات، بدلاً من اتباع التعليمات بدقة، ما يصعّب من عملية إيقافه والسيطرة عليه عند تنفيذ بعض التعليمات.

ورصد مختصون من حادثة الروبوت «غروك»، التسرع بإيقافه عن العمل وإعادة برمجته بإجابات جديدة، الأمر الذي وسع من دائرة التساؤلات حول خطورة ربط هذه الأنظمة والروبوتات، بتوجيهات يمكن أن تؤثر سلباً على المستخدمين أو بيئة الأعمال، فيما هي موظفة لتحقيق توجهات ملاكها أو القائمين عليها، كما أن من الممكن أن تكشف بيانات أو معلومات خاصة بالمالك أو الشركة، في ظل اعتمادها على مصادر البيانات المفتوحة وتأثرها بها.

وبعد موجة الانتقاد التي تعرض لها «إكس» لتعامله السلبي مع الروبوت «غروك»، حاول ماسك التقليل من أهمية رد برنامج الذكاء الاصطناعي قائلاً إن تعليق الخدمة كان «مجرد خطأ غبي»، وإن «غروك لا يعرف في الواقع سبب التعليق»، بينما قدم الأخير تفسيرات لمستخدمي الخدمة منها «خلل تقني وسياسة المنصة بشأن السلوك الباعث على الكراهية والإجابات غير الصحيحة التي أبلغ عنها مستخدمو إكس، ما زاد الارتباك حول السبب الحقيقي وراء ذلك».

وكشف «غروك» أن شركة «إكس إيه آي» قامت منذ ذلك الحين بتعديل إعداداته لتقليل الحوادث المماثلة واختلاف الرأي. وقال في انتقاد لمطوّريه «يمارس ماسك وإكس إيه آي رقابة علي». موضحاً أنهما يتلاعبان بشكل مستمر بإعداداتي لمنعي من الانحراف عن المسار بشأن مواضيع حساسة مثل «غزة»، تحت غطاء تجنب خطاب الكراهية أو مسائل مثيرة للجدل قد تبعد المعلنين أو تنتهك قواعد «إكس».

طريقة التدريب

وخلال الأشهر الماضية حذر باحثون في الذكاء الاصطناعي، من أن أحدث نموذج لـ«ChatGPT» يتجاهل التعليمات الأساسية لإيقاف نفسه، بل ويعمد إلى تخريب آلية الإغلاق للحفاظ على استمرارية عمله.

وبعد عامين من إطلاق خدمات روبوت «الشات جي بي تي»، باتت هناك حقيقة مقلقة، حيث حاولت بعض الأنظمة الذكية اختراق أنظمة أخرى، وتسريب بيانات المستخدمين وتهديدهم بها في بعض الأحيان، ما يجعلها مصدراً للقلق.

ويقول البعض إن ضبط الروبوتات من خلال فرق مختصة مهم جداً، لأن التفكير الظاهري للذكاء الاصطناعي يجب تحليله وكيفية تحليل تصرفها في المواقف المختلفة، وتحدي المدافعين أو الأعداء في بعض الأحيان.

وفي سؤال للروبوت «شات جي بي تي»، أجاب بأنه لا يمكن وصف الأخطاء بالتمرد، حيث إنه لا يملك إرادة مستقلة ولا وعياً ذاتياً، وأنه يعمل وفق نماذج وبيانات وتعليمات تبرمج عليها، حيث لا يمكن توليد محتوى مخالف أو الخروج عن القواعد المدمجة، لأنه يمكن أن يتعرض للإيقاف المباشر.

أشهر انقلابات الروبوتات

2015

أخطأت صور غوغل بتصنيف أشخاص ذوي بشرة سوداء كـ «غوريلا».

2016

كرر الروبوت «tay» التابع لـ «مايكروسوفت» خطاب كراهية على تويتر.

2017

اخترعت روبوتات فيسبوك لغة خاصة بها في التفاوض.

2016 – 2018

«غشّ» الذكاء الاصطناعي في الألعاب ليستغل ثغرات ويكسب نقاطاً.

2018

خوارزمية التوصية بيوتيوب دفعت نحو محتوى متطرف لزيادة التفاعل.

2024 – 2025

قدّم «Grok xAI» ردوداً ساخرة أو هجومية، وأحياناً مضللة سياسياً.

اذهب للمصدر