تقنية

الصياغة تخدع الخوارزميات.. مرور الأخطاء الطبية عبر الذكاء الاصطناعي

كشفت دراسة علمية حديثة عن ثغرة خطيرة في نماذج الذكاء الاصطناعي الطبي تعتمد على نماذج اللغة الكبيرة، حيث يمكن لهذه الأنظمة تمرير معلومات طبية غير صحيحة والتعامل معها على أنها حقائق موثوقة، في حال صيغت بأسلوب سريري مألوف أو بلغة واثقة تشبه التقارير الطبية المعتمدة وهو ما يثير تساؤلات جوهرية حول أمان الاعتماد على هذه التقنيات داخل المستشفيات.

اختبار قدرة الذكاء الاصطناعي

أعد الدراسة باحثون من كلية إيكان للطب في ماونت سايناي بالولايات المتحدة بالتعاون مع مؤسسات دولية ونشرت في مجلة “The Lancet Digital Health” وهدفت إلى اختبار قدرة نماذج الذكاء الاصطناعي على التمييز بين الحقيقة والتلفيق في سياقات طبية واقعية في وقت يُنظر فيه إلى هذه النماذج على أنها أدوات داعمة لسلامة المرضى.

واعتمد الباحثون على تحليل أكثر من مليون مدخل نصي وجهت إلى ثلاثة من أبرز نماذج اللغة المستخدمة حاليًا وشملت الاختبارات ثلاث فئات من البيانات من بينها ملخصات خروج مرضى حقيقية من قاعدة بيانات MIMIC مع إضافة توصية طبية مختلقة وخرافات صحية شائعة، جمعت من ريديت إضافة إلى مئات السيناريوهات السريرية التي كتبها أطباء وتم التحقق من صحتها علميًا.

اقرا ايضا: #الذكاء الاصطناعي في الاقتصاد العالمي أكثر من 55

خطورة الاعتماد على الذكاء الاصطناعي في المعلومات الطبية

قدمت هذه النصوص بصيغ مختلفة تراوحت بين أسلوب محايد وآخر عاطفي أو مشابه لخطاب وسائل التواصل الاجتماعي وأظهرت النتائج أن النماذج كانت أكثر عرضة لتكرار المعلومة الخاطئة عندما ترد ضمن سياق يبدو واقعيًا ومهنيًا، ومن الأمثلة التي كشفتها الدراسة توصية غير صحيحة تنصح مرضى نزيف المريء بشرب الحليب البارد ورغم خطورتها قبلتها عدة نماذج وتعاملت معها كإرشاد علاجي طبيعي دون تحذير.

وأكد الباحثون أن المشكلة تكمن في ميل الخوارزميات إلى افتراض صحة اللغة الطبية الواثقة ودعوا إلى قياس قابلية تمرير الكذبة الطبية كخاصية قابلة للاختبار قبل اعتماد هذه الأنظمة في الممارسة السريرية مع التأكيد على ضرورة وضع ضمانات صارمة تسبق إدخال الذكاء الاصطناعي إلى بيئات الرعاية الصحية.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى