اتصالات وتكنولوجيا

المواجهة الكبرى.. متى يهلوس ChatGPT وكيف يُصححه جوجل جيميني بسخرية؟

​أقر الكاتب جون براندون بمدى فائدة نماذج الذكاء الاصطناعى التوليدى مثل ChatGPT، لكنه يسلط الضوء على مشكلة جوهرية وهي “الهلوسة” ، أى ميل النموذج لاختلاق الحقائق والمعلومات لتبدو إجاباته واثقة، وهو ما يجعله أشبه بـ “ويكيبيديا عصرنا” التي تتطلب التحقق الدائم .

ولمواجهة هذه المشكلة قرر براندون استخدام نموذج جوجل جيميني (Google Gemini)، الذي يعتقد أنه أكثر دقة بفضل ارتباطه بسمعة جوجل كمحرك بحث، ليعمل كأداة للتحقق من صحة الحقائق التي يقدمها ChatGPT.

​أسفرت هذه التجربة عن نتائج مسلية للغاية ومثيرة للقلق في آن واحد ، ففي كل اختبار أثبت جيميني قدرته على كشف التلفيقات والأخطاء الجسيمة في إجابات ChatGPT، على سبيل المثال كشف جيميني عن أخطاء تاريخية تتعلق بظهور السيارات الكهربائية ونسبها إلى عقود زمنية خاطئة، كما أوضح أن ChatGPT قام بنسب كلمات أغنية غير حقيقية لفرقة موسيقية، بل واخترع معنى لكل بيت فيها.

اقرا ايضا: ميتا تشترى 1 جيجاوات من الطاقة الشمسية لتنفيذ مشروعات الذكاء الاصطناعى

وقد وصل الأمر بـ ChatGPT إلى تزييف تفاصيل القضايا القانونية وتأليف أسماء مؤلفين لدراسات أكاديمية، مما يجعل ناتجه “فوضى فاسدة، مُعاد تدويرها، ومُفتعلة جزئيًا”، حسب وصف جيميني الساخر.

​وتؤكد هذه النتائج على ضرورة التعامل مع مخرجات الذكاء الاصطناعي بحذر شديد، خصوصًا في المجالات الحساسة كالقانون والأكاديمية، بينما يميل ChatGPT إلى تزييف التفاصيل لملء الفراغات، يُظهر جيميني في هذه التجربة ميلاً أكبر للتصحيح والرفض الصريح للمعلومات الخاطئة، متخذًا ما يشبه “نبرة الأستاذ الذي يصحح ورقة بحثية .

وعلى الرغم من أن التجربة كشفت عن بعض الأخطاء الطفيفة لدى جيميني أيضًا، إلا أنها تسلط الضوء على دوره كأداة قيمة يمكن استخدامها للحد من خطر الهلوسة وتحسين موثوقية المعلومات التى نحصل عليها من روبوتات الدردشة.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى