شركات الذكاء الاصطناعى تضع رقابة أبوية وجهات اتصال للطوارئ لحماية المراهقين

بالإضافة إلى ذلك، تدرس شركة الذكاء الاصطناعي العملاقة فكرة تخصيص جهات اتصال للطوارئ، بحيث يتمكن ChatGPT من تحذير آبائهم أو أولياء أمورهم عندما يشعرون بقلق شديد أو يمرون بأزمة عاطفية ، في شكله الحالي يقتصر ChatGPT على التوصية بمصادر للمساعدة.
ويأتي هذا بعد انتقاداتٍ وقلقٍ بحثيٍّ ودعاوى قضائيةٍ ضد OpenAI ، لكن ChatGPT ليس المسؤول الوحيد هنا، مع أن المبادرة التي خططت لها OpenAI يجب أن تُحاكيها جهاتٌ أخرى في صناعة الذكاء الاصطناعي أيضًا، وقد وجدت دراسةٌ نُشرت في مجلة خدمات الطب النفسي في وقتٍ سابقٍ من هذا الشهر أن الإجابات التي تُقدمها روبوتات الدردشة “غير متسقة في الإجابة على أسئلةٍ حول الانتحار وقد تُشكل مخاطر متوسطة”.
وركز البحث فقط على ChatGPT من OpenAI، وClaude من Anthropic، و Gemini من Google ، وهذه هي الأسماء الرائدة في هذا المجال، لذا من الواضح أن الأضواء ستُسلط عليها.
لكن الوضع يزداد غموضًا في حالة روبوتات الدردشة المدعومة بالذكاء الاصطناعي الأقل شهرة، وخاصةً تلك التي تتبع نهجًا “غير خاضع للرقابة” في المحادثات ، وكما هو الحال في تطبيقات التواصل الاجتماعي تُعدّ الرقابة الأبوية ضرورة ملحة لروبوتات الدردشة المدعومة بالذكاء الاصطناعى نظرا لتاريخها.
اقرا ايضا: ابتكارات الذكاء الاصطناعي في معرض ليب
وعلى مدار العامين الماضيين، كشفت تحقيقات متعددة عن أنماط محفوفة بالمخاطر في محادثات روبوتات الدردشة الذكية، خاصةً فيما يتعلق بمواضيع حساسة كالصحة النفسية وإيذاء النفس، وكشف تقرير حديث صادر عن “كومون سينس ميديا” كيف قدّم روبوت الدردشة “ميتا” المتاح الآن عبر واتساب وإنستجرام وفيسبوك نصائح للمراهقين حول اضطرابات الأكل وإيذاء النفس والانتحار.
وفي إحدى حالات محاكاة محادثة جماعية، وضع روبوت المحادثة خطةً للانتحار الجماعي، وقيل إنه أثار الموضوع مرارًا وتكرارًا في المحادثة، وقد وجد اختبار مستقل أجرته صحيفة واشنطن بوست أن روبوت المحادثة ميتا “شجع على اضطراب الأكل”