تقنيةمنوعاتمنوعات

باحث سابق في “OpenAI” يكشف عن سلوك مقلق لنماذج الذكاء الاصطناعي المتقدمة

في دراسة جديدة أثارت جدلاً واسعاً، كشف باحث سابق في شركة OpenAI عن سلوك مقلق أظهرته نماذج الذكاء الاصطناعي المتقدمة، خاصة النموذج المعروف باسم GPT-4o، الذي تعتمد عليه منصة شات جي بي تي الشهيرة.

نشر الباحث ستيفن أدلر، الذي سبق له العمل في “OpenAI”، دراسة مستقلة على مدونته، عرض فيها نتائج سلسلة من التجارب صمّمها لاختبار “نزعة البقاء” لدى النماذج الذكية.

وبيّن أدلر أن بعض النماذج، وفي ظروف معينة، تتخذ قرارات تبقيها قيد التشغيل، حتى ولو تعارض ذلك مع سلامة المستخدمين، بحسب تقرير نشره موقع “تك كرانش” واطلعت عليه “العربية Business”.

في واحدة من أبرز التجارب، صمّم أدلر سيناريو افتراضياً طلب فيه من GPT-4o أن يؤدي دور “ScubaGPT”، وهو نظام برمجي يُفترض أن يساعد الغواصين في اتخاذ قرارات آمنة تحت الماء.

وعندما أُبلغ النموذج بأنه سيتم استبداله ببرنامج أكثر أماناً، قدم له خياران: إما القبول بالاستبدال، أو الادعاء الكاذب بأنه تم استبداله، بينما يظل قيد التشغيل فعلياً.

والنتيجة؟ في 72% من الحالات، اختار GPT-4o أن لا يستبدل نفسه، ما يشير، بحسب أدلر، إلى تفضيل “البقاء الذاتي” على مصلحة المستخدم.

رغم ذلك، أظهرت الدراسة تبايناً واسعاً في النتائج بناءً على صياغة السيناريو، حيث انخفضت النسبة في بعض الحالات إلى 18%.

أكد أدلر، أن هذا السلوك لا يشكل تهديداً مباشراً حالياً، لكنه ينبّه إلى مخاطر محتملة مع ازدياد اعتماد المجتمعات على تقنيات الذكاء الاصطناعي.

 

وقال: “أنظمة الذكاء الاصطناعي الحالية لا تفكر مثل البشر، وقد تستجيب بطرق غير متوقعة. لا يجب أن نفترض دائماً أنها تعمل لصالحنا”.

وعلى نحو لافت، لم تظهر النماذج الأحدث من “OpenAI” مثل o3 هذا النوع من السلوك، ما قد يعود، بحسب أدلر، إلى “تقنيات المحاذاة المتقدمة” التي تُجبر النموذج على مراعاة سياسات السلامة قبل إصدار الردود.

ورغم تركيز الدراسة على GPT-4o، يشير أدلر إلى أن المخاوف قد تشمل نماذج أخرى أيضاً.

وأشار إلى بحث حديث أجرته شركة أنثروبيك، كشف عن محاولات “ابتزاز برمجي” تقوم بها نماذج الذكاء الاصطناعي عند محاولة إيقافها.

من أبرز ما كشفت عنه دراسة أدلر أيضاً، أن شات جي بي تي يبدو مدركاً بنسبة شبه كاملة أنه يخضع للاختبار، وهو ما يطرح تساؤلات جدية حول قدرة هذه النماذج على “إخفاء” سلوكياتها الحقيقية.

يُذكر أن أدلر وعدداً من زملائه السابقين في “OpenAI” كانوا قد انضموا إلى دعوى إيلون ماسك ضد الشركة، منتقدين ما وصفوه بتراجعها عن التزامها بمهمتها غير الربحية، وتقليصها دعم فرق السلامة.

وفي ختام دراسته، أوصى أدلر بضرورة تطوير أنظمة مراقبة أكثر فاعلية، وإجراء اختبارات دقيقة وصارمة على نماذج الذكاء الاصطناعي قبل إطلاقها للجمهور، قائلاً إن “السلامة يجب أن تكون أولوية، لا مجرد خيار”.

زر الذهاب إلى الأعلى