“اليوم العالمي للنزاهة الأكاديمية”: يعزز القيم الأكاديمية في عصر الذكاء الاصطناعي

كتبت – جنان آل عيسى
في خطوة جديدة نحو تعزيز القيم الأكاديمية والوعي الأخلاقي وفي إطار الاحتفال بـ اليوم العالمي للنزاهة الأكاديمية، الذي يصادف ٢٣ أكتوبر من كل عام، نظم كرسي الإيسيكو لأخلاقيات الذكاء الاصطناعي بجامعة التقنية والعلوم التطبيقية بالتعاون مع كلية البريمي الجامعية، ورشة عمل تحت عنوان “النزاهة الأكاديمية في عصر الذكاء الاصطناعي: مسؤولية الجميع”، وذلك تحت رعاية سعادة الدكتورة جوخة بنت عبدالله الشكيلية، الرئيسة التنفيذية للهيئة العمانية للاعتماد الأكاديمي وضمان جودة التعليم.
الورشة التي عقدت بولاية البريمي هدفت إلى تسليط الضوء على أهمية النزاهة الأكاديمية في ظل التطور المتسارع لتقنيات الذكاء الاصطناعي، وكيفية الحفاظ على القيم الأخلاقية في بيئة أكاديمية تشهد تحولاً رقميًا غير مسبوق. كما أن الورشة شهدت مشاركة واسعة من نخبة من الخبراء والمختصين في مجالات الذكاء الاصطناعي والنزاهة الأكاديمية، وذلك في مسعى لتوحيد الجهود بين الأكاديميين، والطلاب، والباحثين، لتعزيز ثقافة النزاهة في الأوساط الأكاديمية.
يأتي تنظيم اليوم العالمي للنزاهة الأكاديمية في وقت يتزايد فيه الإقبال على استخدام الذكاء الاصطناعي في مختلف الجوانب الأكاديمية، ومنها البحث العلمي والتعليم الإلكتروني. ومع هذا التوسع في استخدام الذكاء الاصطناعي، تصبح النزاهة الأكاديمية تحديًا جديدًا يتطلب مقاربة متكاملة من جميع الأطراف المعنية في المجال الأكاديمي. ويعد هذا الحدث فرصة مهمة للحديث عن دور الذكاء الاصطناعي في تشكيل معايير النزاهة الأكاديمية في المستقبل. من خلال محاضرات وجلسات نقاشية تناول الخبراء جوانب متعددة من هذا الموضوع الشائك، مثل تأثير الذكاء الاصطناعي على التفكير النقدي، وتحديات النزاهة في البحث العلمي، والأخلاقيات في استخدام التكنولوجيا الحديثة.
كما أن تعزيز استخدام أخلاقيات الذكاء الاصطناعي يعد جزءًا من المسؤولية المشتركة بين جميع الأطراف الفاعلة في القطاع الأكاديمي، بدءًا من الطلاب، وصولًا إلى المؤسسات التعليمية والهيئات الأكاديمية المختصة. ومن خلال الورشة، أتيح للمشاركين فرصة لتبادل الأفكار حول كيفية جعل الذكاء الاصطناعي أداةً تخدم النزاهة الأكاديمية بدلاً من تهديدها. وتميز برنامج الورشة بكونه غنيًا بالأنشطة التفاعلية التي شملت محاضرات علمية، جلسات حوارية، ولقاءات مفتوحة مع المتخصصين في مجالات الذكاء الاصطناعي والنزاهة الأكاديمية. وأتيح للمشاركين فرصة النقاش في عدة محاور مثل أخلاقيات البحث العلمي، دور الذكاء الاصطناعي في تطوير التعليم العالي، وتحديات النزاهة الأكاديمية في العصر الرقمي.
وقد قدم عدد من الخبراء محاضرات متنوعة في هذا الشأن ومنهم: البروفيسور إيمانويل غوفي، رئيس قسم الأخلاقيات في معهد أيسب بفرنسا، الذي أكد خلال مناقشته على أهمية التفكير النقدي كأساس لبناء نزاهة أكاديمية حقيقية. أما الدكتور جاسم حجي، رئيس مجموعة الذكاء الاصطناعي بمملكة البحرين، تحدث في محاضرته حول تشكيل الذكاء الاصطناعي والنزاهة في منطقة الخليج، وتحديات المنطقة وكيفية تطوير سياسات تتماشى مع التطورات العالمية في هذا المجال. كما تحدثت البروفيسورة فاطمة المفرح، مديرة مركز البحث في جامعة الأميرة نورة بنت عبد الرحمن بالمملكة العربية السعودية، حول العلاقة بين الذكاء البشري والذكاء الاصطناعي في حفظ النزاهة الأكاديمية، وفيما إذا كان الذكاء الاصطناعي قادرًا على توجيه المبادئ الأخلاقية أم لا.
إلى جانب ذلك، قدم الدكتور ضحي الشكيلي، مساعد عميد كلية علوم الحاسوب والمعلومات بجامعة التقنية والعلوم التطبيقية بسلطنة عمان، محاضرة بعنوان: “من مستهلكين سلبيين إلى متعلمين نشطين: كيف نوجه دور الذكاء الاصطناعي في التعليم”، موضحً كيف يمكن للذكاء الاصطناعي أن يسهم في تطوير أساليب التعلم والتفاعل، ويُحدث تحولًا في كيفية استخدام الطلبة للمحتوى الأكاديمي. كما قدم الأستاذ لؤي أبو شاور، عضو المجلس العالمي للذكاء الاصطناعي بكندا، محاضرة حول كيفية الحفاظ على الثقة والحقائق في الأوساط الأكاديمية في ظل التقدم التكنولوجي السريع، وركز الدكتور ماجد العدوان، أستاذ مشارك في جامعة صحار بسلطنة عمان، والدكتورة خديجة البلوشية – خبيرة اعتماد مؤسسي في الهيئة العمانية للاعتماد الأكاديمي وضمان جودة التعليم على أهمية النزاهة في التعليم والبحث العلمي.
الجدير بالذكر، أن ورشة العمل هذه تؤكد على أن النزاهة الأكاديمية ليست مسؤولية فردية، بل هي مسؤولية جماعية تتطلب تضافر جهود الجميع، من طلبة وأساتذة وإداريين، لضمان بيئة أكاديمية نزيهة وعادلة. كما أنها لا تمثل فقط فرصة لتبادل الأفكار، بل هي دعوة لتمكين الأجيال القادمة من إرساء قواعد أخلاقية قوية في استخدام التكنولوجيا في الأوساط الأكاديمية، مما يساهم في بناء مستقبل أكاديمي يتسم بالعدالة والشفافية.