
أعلنت شركة الذكاء الاصطناعي “OpenAI”، الأسبوع الماضي، تشكيل مجلس استشاري لمراقبة السلامة النفسية للمستخدمين وسلامة الذكاء الاصطناعي.
وسيتولى المجلس، المكون من ثمانية أعضاء، وضع معايير للتفاعل الصحي للمستخدمين مع الذكاء الاصطناعي عبر مختلف الفئات العمرية.
جاء هذا الإعلان بالتزامن مع منشور للرئيس التنفيذي للشركة سام ألتمان، أشار فيه إلى نجاح الشركة في التخفيف من “مشكلات الصحة النفسية الخطيرة” التي يسببها استخدام منتجات “OpenAI”، بحسب تقرير لموقع “Mashable” المتخصص في أخبار التكنولوجيا، اطلعت عليه “العربية Business”.
وتواجه “OpenAI” حاليًا أول دعوى قضائية تتعلق بالوفاة عن طريق الخطأ، بعدما زعمت عائلة مراهق أميركي أن روبوت الشركة للدردشة “شات جي بي تي” لعب دورًا في انتحار ابنها.
يضم المجلس الاستشاري في عضويته أكاديميين في الصحة النفسية، بالإضافة إلى خبراء في علم النفس والطب النفسي والتفاعل بين الإنسان والحاسوب.
وقالت “OpenAI”، في منشور على مدونتها: “نظل مسؤولين عن القرارات التي نتخذها، لكننا سنواصل التعلم من هذا المجلس، ومن شبكة الأطباء العالمية، وصانعي السياسات، وغيرهم، بينما نبني أنظمة ذكاء اصطناعي متقدمة بطرق تدعم رفاهية الناس”.
وبشكل عام، أثار رفقاء الذكاء الاصطناعي التوليدي مخاوف جدية بين خبراء الصحة النفسية، بما في ذلك تزايد ما يُعرف بذهان الذكاء الاصطناعي بين المستخدمين المزمنين لروبوتات الدردشة.
وواصلت شركات الذكاء الاصطناعي إطلاق منتجات للصحة النفسية، حيث يلجأ المزيد من المستخدمين إلى الذكاء الاصطناعي للإجابة على أسئلة الصحة النفسية والحصول على الدعم من البدائل الرقمية، على الرغم من ندرة الأدلة التي قد تثبت فعالية هذه الحلول.
وتُجري الجهات التنظيمية الفيدرالية في الولايات المتحدة تحقيقات في دور الذكاء الاصطناعي التوليدي وروبوتات الدردشة في أزمة الصحة النفسية المتنامية، وخاصة بين المراهقين. وحظرت عدة ولايات روبوتات الدردشة المدعومة بالذكاء الاصطناعي، والتي يُروَّج لها كمساعدين علاجيين.