ذكاء اصطناعي

مستقبل الذكاء الاصطناعي يعتمد على الثقة لا على السرعة عملية الأتمتة تفشل عندما لا تقترن بالحماية الكافية

جون مارغيريسون

استعرضت شركة XFactorAi، وعلى لسان مؤسسها جون مارغيريسون، أبرز العوامل التي تحدد مستقبل الذكاء الاصطناعي واستخداماته، حيث أظهرت أن مستقبل الذكاء الاصطناعي يعتمد على الثقة أكثر مما يعتمد على السرعة.

وقد شهد العام الماضي سباقاً محتدماً في مجال الذكاء الاصطناعي، حيث تسابقت الشركات على تقديم نماذج أسرع ومجموعات بيانات أكبر وقدرات نشر أسرع. ومع نضوج هذه التقنية بدأت المؤسسات الكبرى والهيئات الحكومية تدرك أن التقدم الحقيقي في استخدام الذكاء الاصطناعي لا يتمحور حول السرعة، بل يعتمد قبل أي شيء آخر على عامل واحد هو الثقة.

ومع نضوج الذكاء الاصطناعي، سنشهد خلال الأشهر الأربعة والعشرين إلى الستة والثلاثين المقبلة تحولاً واضحاً في استخدام الذكاء الاصطناعي، حيث ستنتقل الأنظمة التي تعتمد عليه من مجرّد توليد الرؤى والمعطيات إلى دعم اتخاذ القرار البشري، ثم إلى المساعدة في تنفيذ الأفعال وتحقيق النتائج. وفي كل مرحلة من هذه الرحلة، لا يكمن التحدي الحاسم في القدرات التقنية للذكاء الاصطناعي، بل في مدى الثقة فيه.

وستتعرّض المؤسسات التي تندفع مباشرة لاتخاذ الإجراءات المرتكزة على النتائج التي يولّدها الذكاء الاصطناعي إلى تحديات كبيرة، لاسيما إن افتقرت إلى ضوابط الامتثال المناسبة والإشراف البشري على اتخاذ القرار وأدوات التدقيق والمراجعة، كما سينهي المطاف بالكثير منها بالفشل.

وقد انحصرت استخدامات الذكاء الاصطناعي في مراحله الأولى في المؤسسات في إطار رصد وتحليل المعلومات، وهو الأمر الذي لازال سائداً في الكثير من المؤسسات اليوم، حيث يقتصر دوره فيها على تحديد الأنماط أو تلخيص المعلومات أو إبراز التوجهات التي قد تغيب عن ذهن الموظف، وقد كانت مخرجاته مفيدة وأحياناً لافتة، لكنها نادراً ما كانت حاسمة أو أساسية.

وقد كان الذكاء الاصطناعي آمناً إلى حد كبير لأنه كان يتوقف عند حدود الرؤية والتحليل، وظلّت عملية اتخاذ القرارات منوطة بالبشر، مما سهّل عملية المساءلة، وبقيت المخاطر ضمن نطاق يمكن التحكم فيه. إلا أن الصورة تبدلت خلال السنة الماضية مع قيام الذكاء الاصطناعي بوظائف أكثر تقدماً.

وقد حدث التحول الحقيقي عندما بدأ الذكاء الاصطناعي في تشكيل الاختيارات بدلاً من الاكتفاء بتقديم المعلومات فقط، وأصبحت التوصيات التي يقدمها الذكاء الاصطناعي تؤثر في تحديد الأولويات، مما يساهم التأثير في الخيارات التي يتم أخذها بعين الاعتبار، وقد حدث هذا الانتقال بدون إقرار رسمي من المؤسسات.

ولم يكن الذكاء الاصطناعي في بداية هذا التحول هو من يقرّر، لكنه كان يؤطّر القرارات التي يتخذها البشر ويقوم بفلترتها وترجيح بعضها على بعض، وأدّى هذا التحوّل الدقيق إلى ظهور سؤال جديد ومقلق: من يتحمّل المسؤولية عندما يؤثّر الذكاء الاصطناعي في الحكم البشري؟


وقد اكتشفت معظم المؤسسات أنها لا تملك إجابة واضحة على هذا السؤال.

ومع اقتراب أنظمة الذكاء الاصطناعي من اتخاذ القرارات بشكل مباشر، أدركت كثير من الشركات أنها طوّرت قدرات سريعة دون بناء ضوابط كافية للحماية، وقريباً ستواجه مجالس الإدارات حول العالم أسئلة عملية وحقيقية لا نظرية، وستظهر الأخطاء في بيئات فعلية، وستكون لها آثار ملموسة.

ولهذا، يجب على كل مسؤول يستخدم الذكاء الاصطناعي أن يسأل: هل يمكن شرح هذا القرار ببساطة؟ وهل يلتزم هذا القرار بالقوانين والسياسات؟ وهل يمكن الدفاع عن القرار وتبريره أمام جهة رسمية أو قضائية؟ وهل من الصحيح السماح لهذا النظام باتخاذ القرار أصلاً؟

ولم تعد هذه الأسئلة بعيدة أو افتراضية، لاسيما في القطاع المالي والقطاع الحكومي وقطاع الطاقة والرعاية الصحية، بل أصبحت واقعاً ضمن الأنظمة التي تعمل اليوم. وفي كثير من الحالات، تسارع استخدام الذكاء الاصطناعي بسرعة، بينما حاولت فرق الامتثال والمخاطر التمهّل، ولم يكن ذلك بسبب ضعف التقنية أو إمكانياتها المحدودة، بل كان السبب غياب الثقة في كيفية اتخاذ القرار، وهنا يظهر المعنى الحقيقي لنضج الذكاء الاصطناعي.

لماذا تفشل عملية الأتمتة عندما لا تقترن بالحماية الكافية

غالياً ما يُشار إلى الأتمتة على أنها الهدف الرئيسي للذكاء الاصطناعي، لكن الأتمتة من دون حوكمة واضحة تكون هشًّةً وخطِرة، فعندما تعمل أنظمة الذكاء الاصطناعي من دون ضوابط واضحة، أو من دون القدرة على شرح كيفية اتخاذ القرار، أو من دون الالتزام بالقوانين، فإنها لا تضيف قيمة مستدامة، بل تتسبب في مخاطر خفية.

إن الأتمتة المسؤولة لا تعني إقصاء البشر، بل تعني التأكد من أن القرارات المدعومة بالذكاء الاصطناعي آمنة وقابلة للمراجعة ومتوافقة مع الأهداف والقواعد، وذلك قبل تنفيذها من الأساس.

مسار أكثر مسؤولية للمضي قدماً

هذه الملاحظات شكّلت أساس عملي كمؤسس لشركة XFactorAI، حيثلم يكن الهدف يوماً تسريع الأتمتة لمجرد السرعة، بل معالجة فجوة الثقة بين ما يقدّمه الذكاء الاصطناعي من معلومات، وما يتم تنفيذه فعلياً على أرض الواقع.

ومن هذا التفكير جاءت فكرة تطوير نظام WorkPilot، وهو نظام لاتخاذ القرار وأتمتة سير العمل في المؤسسات، صُمّم منذ البداية مع مراعاة الالتزام باللوائح، وضبط القرارات، وإمكانية المراجعة والتدقيق. والتركيز في هذا النظام ليس على السرعة بالدرجة الأولى، بل على السلامة والمساءلة أولاً.

والفكرة الأساسية البسيطة التي غالبًا ما تُهمَل هي: يجب على أنظمة الذكاء الاصطناعي أن تثبت جدارتها قبل أن يُسمح لها بالأتمتة.

المرحلة القادمة من قيادة الذكاء الاصطناعي

لن تكون السرعة في تبنّي الذكاء الاصطناعي العامل الأهم في رسم مستقبل هذه التقنية، بل سيرتبط ذلك بمن يستخدمه بمسؤولية أكبر، فالمؤسسات الناجحة هي التي تتعامل مع قرارات الذكاء الاصطناعي بالجدّية نفسها التي تتعامل بها مع الأحكام والقرارات البشرية،

كما تقوم بدمج الحوكمة والذكاء البشري مع الذكاء الاصطناعي داخل أنظمتها منذ البداية، وتدرك أن الثقة خيار هندسي في تصميم النظام، لا مجرد وثيقة سياسات. فالذكاء الاصطناعي لم يعد مجرّد أداة لتقديم المعلومات، بل أصبح مرتبطاً في اتخاذ الأحكام والمساءلة واتخاذ الإجراءات.

ومجالس الإدارات التي تفهم هذا الفرق اليوم، ستتجنب إخفاقات الذكاء الاصطناعي في المستقبل. والثقة هي الجسر الذي يجعل هذا الانتقال ممكناً.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى