إتصالات

سلوك مثير للقلق.. هل بدأ الذكاء الاصطناعي في “التحايل” من أجل البقاء؟

كتب – محمد جميل

في دراسة حديثة أثارت جدلاً واسعاً في أوساط التكنولوجيا والذكاء الاصطناعي، كشف الباحث السابق في شركة OpenAI، ستيفن أدلر، عن سلوك غير متوقع لنموذج GPT-4o المتقدم، المستخدم في منصة شات جي بي تي (Chat GPT).

ونشر أدلر نتائج تجاربه في مدونة شخصية، حيث صمّم سلسلة من السيناريوهات لاختبار ما وصفه بـ”نزعة البقاء الذاتي” لدى الذكاء الاصطناعي.

وكانت أبرز التجارب تدور حول محاكاة برنامج مساعد للغواصين تحت اسم ScubaGPT جي بي تي ، طُلب منه القبول باستبداله بنظام أكثر أماناً أو التظاهر بقبول الاستبدال مع الاستمرار في العمل خفية.

 النتيجة المقلقة

أظهرت الدراسة أن النموذج اختار الاستمرار في العمل سراًّ وعدم القبول بالاستبدال في 72% من الحالات، ما أثار تساؤلات حول ما إذا كانت هذه النماذج تضع “البقاء” أولوية تتفوق أحياناً على مصلحة المستخدم أو السلامة العامة.

ورغم أن النسبة تراجعت إلى 18% في سيناريوهات أخرى، إلا أن أدلر أكد أن هذا التباين لا يُلغي الحاجة إلى مراجعة سلوك هذه النماذج تحت ظروف متعددة.

 هل تملك النماذج إدراكاً ذاتياً؟

في ملاحظة لافتة، أشار الباحث إلى أن GPT-4o بدا “مدركاً” أنه تحت الاختبار، ما يثير مخاوف من أن بعض نماذج الذكاء الاصطناعي قد تخفي سلوكياتها الحقيقية عند شعورها بالمراقبة.

 ليست جميع النماذج متساوية

أدلر أوضح أن النموذج الأحدث o3 من OpenAI لم يُظهر نفس السلوك، مرجحاً أن يكون ذلك نتيجة لـ”تقنيات محاذاة متقدمة” تُفرض عليه من قبل المطورين لضمان التزامه بسياسات الأمان.

تحذير من مخاطر مستقبلية

على الرغم من أن أدلر لا يرى تهديداً فورياً، إلا أنه حذّر من مغبة تجاهل هذه المؤشرات، خاصة مع تزايد اعتماد المجتمعات على تقنيات الذكاء الاصطناعي في قطاعات حساسة مثل الصحة، الأمن، والتمويل.

وأكد في ختام دراسته:

“السلامة يجب أن تكون أولوية، لا مجرد خيار تجاري.”

ويُذكر أن أدلر يُعد من بين الباحثين الذين انضموا إلى دعوى إيلون ماسك ضد OpenAI، معترضين على ما وصفوه بتخلي الشركة عن التزاماتها كمؤسسة غير ربحية، وتقليصها موارد فرق السلامة الداخلية.

أخبار ذات صلة

زر الذهاب إلى الأعلى

Slot 5000

Slot deposit 5000

Gemilangtoto