دراسة بريطانية تكشف: ChatGPT وGemini يمكن التلاعب بهما لتوليد محتوى مضلل

حذرت دراسة صادرة من مركز الذكاء الاصطناعي في بريطانيا وشركة أنتروبيك، من إمكانية حدوث اختراقات لنماذج الذكاء الاصطناعي مثل ChatGPT و Gemini، والتلاعب بها لإنتاج محتوى مضلل.
وكشف الباحثون، أن نماذج الذكاء الاصطناعي من السهل التلاعب بها عبر بعض الثغرات التي تتيح للمخترقين تدريب هذه النماذج لإنتاج محتوى مضلل وضار للمستخدمين من خلال التدريب باستخدام بيانات كاذبة، واستندت الدراسة على تجربة واقعية استعان خلالها الباحثون بنحو 250 وثيقة ملوثة ببيانات مغلوطة، تم إدخالها عبر ثغرة خلفية، وبعد التجربة، أنتجت الأدوات نصوصا مبهمة وغير مفهومة.
اقرا ايضا: أداة الذكاء الاصطناعي Copilot للمطورين
وأثارت تلك النتائج قلق الباحثين من قدرة الجهات الخبيثة لإدخال نصوص ملوّثة لهذه المنشورات لجعل النماذج تكتسب سلوكيات غير مرغوب فيها وخطيرة، وتعرف هذه العملية باسم “التسميم”، مما يوجب على المستخدم عدم الاعتماد على هذه النماذج لاسيما في البيانات شديدة الحساسية .