أبل تبدأ اختبارات لدمج الذكاء الاصطناعي في هواتف “آيفون”
الشركة تطور نموذجاً جديداً لمعالجة وجمع البيانات على هواتفها الذكية
متابعة جمال علم الدين
كشفت أوراق بحثية جديدة، عن اختبارات أجرتها شركة أبل، لدمج أدوات الذكاء الاصطناعي في هواتف “آيفون”، رغم أنها لم تفصح عن أي مزايا مرتبطة بدمج تلك الأدوات على الهواتف.
وبحسب ورقة بحثية بعنوان LLM in Flash نشرتها الشركة في 12 ديسمبر الجاري، فإن أبل نجحت في تطوير نموذج ذكاء اصطناعي وتشغيله محلياً على هواتف “آيفون”، مع ترشيد استهلاك بطارية الهواتف، إضافة إلى تحليل ومعالجة جميع البيانات داخلياً على الهاتف، دون أي حاجة إلى الاتصال بخوادم سحابية.
تلك ليست المرة الأولى التي تظهر نية أبل نحو تقديم الذكاء الاصطناعي على أجهزة هواتفها، اعتماداً على معالجة البيانات داخلياً، وذلك حفاظاً على خصوصية بيانات المستخدمين، إذ نشرت “بلومبرغ” تقريراً في أكتوبر الماضي، يوضح عمل فريق أبل للذكاء الاصطناعي على إصدار جديد من مساعد أبل الذكي “سيري”، يعتمد على الذكاء الاصطناعي التوليدي، فيما توقعت “بلومبرغ” وصوله إلى المستخدمين بحلول العام المقبل 2024.
وأشار التقرير أيضاً، إلى وجود مخاوف داخل الشركة بشأن التقنية التي تعتمد عليها النسخة المطورة من “سيري”، إذ ستستغرق الشركة وقتاً أطول لتطبيقها داخل خدمات أو تطبيقات أخرى.
ولفتت “بلومبرغ” إلى تطوير أبل لنموذج ذكاء اصطناعي توليدي يتعامل مع النصوص يحمل اسم Ajax، وداخلياً يسمى بـ AppleGPT، وهو المُكافئ لمنصة ChatGPT، وقد أتاحت الشركة الأميركية داخلياً استخدام منصتها الذكية للموظفين للتعامل مع النصوص.
نماذج “ترى” بشكل أفضل
إلى جانب تلك الورقة البحثية، قامت أبل خلال الشهر الجاري بنشر ورقتين بحثيتين، إحداهما تتعلق بنموذج ذكي يُسمى HUGS، والذي يختص بإنشاء نماذج رقمية بشرية متحركة ثلاثية الأبعاد، اعتماداً على فيديوهات مصورة من زاوية واحدة، ومحدودة المُدة، تتراوح بين 50 إلى 100 لقطة على الأكثر.
ويستغرق النموذج قرابة 30 دقيقة فقط، لإنشاء نموذج رقمي متحرك بتصميم 3D، من خلال فصل الشخصية عن المشهد المصور، وجعلها أكثر ديناميكية.
نجح الفريق البحثي في أبل من خلال النموذج الجديد، في تسريع عملية إنشاء نموذج متكامل ثلاثي الأبعاد للجسم البشري، من مجرد فيديو مصور من زاوية واحدة، وذلك بمعدل 100 مرة أسرع من أي نموذج ذكاء اصطناعي آخر، سواء على مستوى التدريب وكذلك التطبيق العملي.
التقنية الجديدة التي توصلت إليها أبل تسهل بشكل كبير عملية استخلاص العناصر من الفيديوهات وفصلها، وإضافتها لفيديوهات جديدة كلياً، مما سيفتح المجال أمام العديد من الصناعات للاستفادة من تلك التقنية، مثل الاجتماعات عن بعد وجعلها أكثر شخصية من خلال تواجد أفاتار 3D بهيئة بشرية في نفس المكان، فيكون التواصل أكثر واقعية، إلى جانب إمكانية تطبيقها على إنشاء محتوى مبتكر عبر كاميرات الهواتف الذكية.
بينما الورقة البحثية الثانية اعتمدت على تطوير تقنيات جديدة تسمح بتشغيل النماذج اللغوية الضخمة LLMs، والتي تعتبر هي أساس عمل مختلف نماذج الذكاء الاصطناعي، التي تستخدم الأوامر اللغوية لإنتاج المحتوى النصي أو المصور، محلياً على أجهزة ذكية بذاكرة محدودة، مثل الهواتف الذكية والحواسيب الشخصية، دون الحاجة إلى قدرات ضخمة لمعالجة البيانات وتشغيل تلك النماذج، كما هو الحال مع منصة ChatGPT من شركة OpenAI.
يُذكر أن مدير أبل، تيم كوك، أكد في وقت سابق من العام الجاري، أن الشركة بالفعل تركز على سوق الذكاء الاصطناعي، وتستثمر بشكل موسّع في تقنيات الذكاء الاصطناعي التوليدي، وذلك خلال الاجتماع الأخير لإعلان النتائج الفصلية مع المستثمرين في نوفمبر، إلى جانب كشف بعض التقارير اتجاه الشركة الأميركية نحو استثمار ملايين الدولارات يومياً لتشغيل وتدريب النماذج الذكية.
نموذج متعدد الإمكانيات
وكشفت ورقة بحثية ترجع إلى أكتوبر الماضي، عملت عليها مجموعة بحثية كبيرة مكونة من باحثين من أبل وجوجل وجامعة كولومبيا الأميركية، إحراز تقدم في مشروع متعدد الإمكانيات، يُسمى Ferret، ويمكن تشغيله على الأجهزة الذكية المحمولة مثل الهواتف الذكية.
أقرأ ايضا :تسريبات: أبل تسعى جاهدة لتحديث برامج تشغيل ساعاتها الذكية لتجنب “حظر وشيك”
النموذج الجديد يعد واعداً لعدة أسباب، أولها أنه لا يحتاج إلى قدرات فائقة في المعالجة والتخزين ليقدم كامل قدراته، إلى جانب أنه مفتوح المصدر، وتلك خطوة تعتبر غير مسبوقة من أبل في سوق الذكاء الاصطناعي.