مشروع BlenderBot من “ميتا” مثال على أهمية الاعتمادية والأمن لتقنيات الذكاء الاصطناعي وتعلّم الآلات
يحتلّ مشروع “ميتا” البحثي المسمّى Blenderbot عناوين بارزة في الأخبار منذ إطلاقه في أوائل أغسطس الجاري، وهو مشروع بحثي قائم على الذكاء الاصطناعي، ويتألف من “روبوت للمحادثة” تبدو تصريحاته في شؤون الأفراد والمؤسسات والسياسات مفاجئة أحيانًا أو ذات صبغة متطرفة في أحيان أخرى. ويعكس هذا المشروع صورة التحدّيات التي تصطدم بها تقنيات تعلّم الآلات في رحلة تطورّها، لذا ينبغي للمؤسسات التي تستخدم هذه التقنيات في أعمالها التجارية أن تتصدّى لتلك التحديات.
وقد واجهت مشاريع أخرى مماثلة في السابق المشكلة نفسها التي واجهتها “ميتا”، الشركة الأم لـ “فيس بوك”، في مشروعها Blenderbot، مثل تطبيق الدردشة Tay الذي طورته مايكروسوفت لصالح “تويتر”، والذي انتهى به الأمر إلى الإدلاء ببيانات عنصرية. ويعكس هذا التحدّي التفاصيل الخاصة بالنماذج المولِّدة للمحتوى والقائمة على تقنيات تعلّم الآلات التي يجري تدريبها على النصوص والصور من الإنترنت. وتستخدم هذه النماذج مجموعات ضخمة من البيانات الخام لجعل مخرجاتها من المحتوى مقنِعة للجمهور، ولكن يصعب منع هذه النماذج من التقاط التحيّزات الكامنة في البيانات إذا كانت تُدرّب على الويب.
وتشتمل أغلب هذه المشاريع حاليًا على أهداف بحثية وعلمية. لكن المؤسسات تستخدم أيضًا نماذج لغوية في المجالات التطبيقية، كدعم العملاء والترجمة وكتابة المحتوى النصيّ للمواد التسويقية وتدقيق النصوص، وما إلى ذلك. ويمكن للمطوّرين تنسيق مجموعات البيانات المستخدمة في تدريب تلك النماذج القائمة على تعلّم الآلات، لجعلها أقلّ تحيزًا، إلّا أن الأمر يظلّ صعبًا في حالة مجموعات البيانات الواسعة المتاحة على نطاق الويب. وتتمثل إحدى الطرق المتّبعة لمنع الأخطاء المحرجة في فلترة البيانات بحثًا عن التحيّزات، كاستخدام كلمات أو عبارات محدّدة لإزالة مستندات معنية ومنع النموذج من التعلّم منها. وهناك طريقة أخرى تتمثل في فلترة النصوص غير الملائمة الصادرة عن النموذج، والتي قد تكون مثار جدل، وذلك قبل وصولها إلى المستخدمين.
ويتّضح عند توسعة نطاق النظر إلى نماذج التفاعل مع العملاء، القائمة على تعلّم الآلات، أنها بحاجة ماسّة إلى الحماية، لا من التحيّزات وحدها، وإنما أيضًا من الأنشطة التخريبية التي يقف مجرمو الإنترنت وراءها. ويستطيع المجرمون أن يستغلّوا اعتماد المطورين على البيانات المفتوحة في تدريب نماذج توليد المحتوى، ويقوموا بـ “تسميم البيانات” عبر إضافة بيانات مشوَّهَة إلى مجموعة البيانات، ما يجعل النموذج غير قادر على تحديد بعض الأحداث أو الخلط بينها وبين أحداثٍ أخرى، واتخاذ قرارات خطأ.
وقال فلاديسلاف توشكانوف عالم البيانات الرئيس لدى كاسبرسكي، إن المؤسسات ما زالت بحاجة إلى اتباع ممارسات الحماية الأمنية، بالرغم من أن مثل تلك التهديدات لا تزال نادرة في الواقع، نظرًا لأنها تتطلب الكثير من الجهد والخبرة من المهاجمين، كما أن تدابير الحماية تساعد في تقليل الأخطاء الناجمة عن تدريب النماذج. وأضاف: “تحتاج المؤسسات أولًا إلى معرفة طبيعة البيانات التي تُستخدم للتدريب ومصدرها، ومن ثَمّ إدراك أن تنوّع البيانات يجعل “تسميمها” أصعب، ومن المهم أخيرًا اختبار النموذج بدقة قبل وضعه موضع التشغيل ومراقبة أدائه باستمرار”.
ويمكن للمؤسسات والخبراء أيضًا الرجوع إلى أطلس MITRE ATLAS، الذي يُعدّ قاعدة معرفية مختصّة بالتهديدات المتربّصة بأنظمة تعلّم الآلات. ويقدّم هذا الأطلس مجموعة من التكتيكات والأساليب المستخدمة في الهجمات على تلك الأنظمة.
وقد أجرت كاسبرسكي اختبارات محدَّدة على أنظمة مكافحة البريد غير المرغوب فيه، والكشف عن البرمجيات الخبيثة وذلك عبر إجراء عمليات محاكاة للهجمات الرقمية بهدف الكشف عن الثغرات الأمنية المحتملة وفهم الضرر المحتمل وسبل التخفيف من أخطار هذه الهجمات.
ويُستخدم تعلم الآلات على نطاق واسع في منتجات كاسبرسكي وخدماتها، لاكتشاف التهديدات وتحليل التنبيهات في مركز العمليات الأمنية التابع للشركة، أو اكتشاف الأخطاء في حماية عمليات الإنتاج. ويمكن معرفة المزيد عن تعلّم الآلات في منتجات كاسبرسكي.