اتصالات وتكنولوجيا

أنثروبيك تطلق دليل استخدام “كلود”: عامله كموظف ذكى يعانى من فقدان الذاكرة

أصدرت شركة Anthropic، المتخصصة في تطوير الذكاء الاصطناعي، دليلاً شاملاً حول كيفية التعامل مع مساعدها الذكي “كلود”، موضحة أن المفتاح للحصول على إجابات دقيقة وفعالة من روبوتات الدردشة هو في طريقة طرح الأسئلة.

وتوصي الشركة المستخدمين بالتعامل مع “كلود” كما لو كان موظفًا جديدًا ذكيًا، لكنه يعاني من فقدان الذاكرة، ولا يعرف شيئًا عن تفضيلاتك أو أسلوب عملك.

وقالت أنثروبيك في دليلها:“كلود أشبه بموظف لامع ومتحمس لكنه جديد بالكامل في الشركة، لا يعرف أسلوبك، ولا يتذكر ما قلته من قبل، ويحتاج إلى تعليمات واضحة ومباشرة”.

ويقدّم الدليل عدداً من النصائح العملية للمستخدمين لتطوير مهاراتهم في ما يُعرف باسم “هندسة الإيعاز” (Prompt Engineering)، وهو الفن الذي أصبح أساسياً للتعامل مع أدوات الذكاء الاصطناعي بكفاءة.

وضوح الطلبات هو المفتاح

أحد أبرز التوصيات هو ضرورة أن تكون الطلبات موجهة وواضحة للغاية، فمثلاً، بدلاً من قول “اختصر هذا التقرير”، يجب توضيح من هو الجمهور المستهدف، ما هو الطول المناسب للملخص، وهل يجب التركيز على المخاطر أو الفرص أو البيانات المالية.

اقرا ايضا: أنثروبيك تضيف ميزة تصفح الويب إلى روبوت Claude

وتضيف أنثروبيك: “الذكاء الاصطناعي لا يعرف ماذا تعني عبارة مثل ‘اجعل النص لافتاً’، لذا لا بد من تحديد الأهداف بدقة، وتوضيح الشكل والأسلوب والنتائج المتوقعة.”

استخدم الأمثلة لتدريب كلود

الدليل يشير أيضاً إلى تقنية “الإيعاز المتعدد” أو multi-shot prompting، حيث يُنصح بإعطاء كلود أمثلة متعددة لما تتوقعه من مخرجات، ما يساعده في تقليد الأسلوب المطلوب بشكل أفضل.

دع الذكاء يفكّر

كما توصي أنثروبيك بالسماح للذكاء الاصطناعي أن “يفكّر بصوت عالٍ”، عبر إعطائه الفرصة لشرح خطواته أو منطقه بالتفصيل، فيما يعرف بأسلوب “سلسلة التفكير” Chain-of-Thought، وهو ما يؤدي إلى نتائج أكثر دقة وتعقيدًا عند التعامل مع مسائل مركبة.

عيّن له دوراً يلعبه

من بين النصائح الفريدة التي يتضمنها الدليل، تقترح أنثروبيك استخدام ما يسمى “تحديد الدور”، أي أن تطلب من “كلود” أن يتصرف كصحفي، أو محلل مالي، أو حتى كمعالج نفسي، وفقاً لطبيعة المهمة المطلوبة، هذا الأسلوب يساعد على ضبط النبرة والتنسيق بما يتناسب مع التوقعات.

كيف تمنع كلود من اختلاق المعلومات؟

لمعالجة مشكلة “هلوسة الذكاء الاصطناعي”، تنصح الشركة بالسماح للمساعد بأن يعترف بعدم المعرفة، وأن تطلب منه تقديم أدلة تدعم ما يقوله، وجاء في الدليل: “أعطِ كلود الإذن بأن يقول: لا أعرف،  وادعمه للتشكيك في المعلومات التي يقدّمها إذا لم تكن هناك مصادر واضحة.”

يُعد هذا الدليل من أنثروبيك مرجعًا عمليًا لأي مستخدم يرغب في تحقيق أقصى استفادة من مساعدات الذكاء الاصطناعي الحديثة، في ظل تزايد الاعتماد على تقنيات مثل “كلود” و”تشات جي بي تي” في المهام اليومية، سواء في التعليم أو البرمجة أو الكتابة أو تحليل البيانات.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى