أصبح الذكاء الاصطناعي يعتمد بشكل أكبر على دمج وتحليل أنواع مختلفة من البيانات، مثل النصوص والصور والصوت والفيديو، لكن لا يزال هناك تحدٍ كبير يتمثل في اختيار الخوارزمية المناسبة لكل مهمة، خاصة مع وجود العديد من الأساليب المختلفة، وفي هذا الإطار، قدم باحثون من جامعة إيموري إطارًا نظريًا موحدًا لتنظيم هذا الفوضى، وتم نشر نتائجهم في مجلة Journal of Machine Learning Research.

يقول الدكتور إيليا نيمينمان، أستاذ الفيزياء في جامعة إيموري والمؤلف الرئيسي للدراسة، إن العديد من الأساليب الناجحة في الذكاء الاصطناعي تعتمد على فكرة بسيطة واحدة، وهي ضغط البيانات متعددة الأنواع مع الاحتفاظ فقط بالمعلومات التي تتنبأ بما نحتاجه فعلاً، ويضيف أن هذا المفهوم يتيح إنشاء ما يشبه “الجدول الدوري للذكاء الاصطناعي”، حيث يمكن تصنيف الطرق المختلفة بناءً على المعلومات التي تحتفظ بها دالة الخطأ أو تتجاهلها.

دالة الخطأ هي القاعدة الرياضية التي يستخدمها نظام الذكاء الاصطناعي لقياس مدى دقة تنبؤاته، وخلال مرحلة التدريب، يقوم النموذج بتعديل معاييره الداخلية باستمرار لتقليل هذا الخطأ، وقد طور الباحثون مئات من دوال الخطأ المختلفة، لكن اختيار الدالة المناسبة غالبًا ما يتم بطريقة تجريبية، ويتساءل نيمينمان عما إذا كنا بحاجة لبدء كل شيء من جديد في كل مرة نواجه فيها مشكلة جديدة، أم يمكن إيجاد طريقة أكثر منهجية.

للإجابة عن هذا السؤال، قام الفريق بتطوير إطار رياضي يسمى Variational Multivariate Information Bottleneck Framework، ويربط هذا الإطار تصميم دالة الخطأ بقرار أساسي حول المعلومات التي يجب الاحتفاظ بها وما يمكن تجاهله، ويشير الباحث مايكل مارتيني، المؤلف المشارك في الدراسة، إلى أن هذا الإطار يمكن اعتباره مقبض تحكم، يمكن تدويره لتحديد كمية ونوع المعلومات التي يجب أن يحتفظ بها النظام لحل مشكلة معينة.

يقول الباحث إسلام عبدالعليم، المؤلف الأول للدراسة، إن الهدف هو مساعدة المطورين على تصميم نماذج ذكاء اصطناعي مخصصة للمشكلات التي يعملون عليها، مع فهم واضح لكيفية عمل كل جزء من النموذج ولماذا يعمل، ويمكن لهذا الإطار أن يساعد مطوري أنظمة الذكاء الاصطناعي على اقتراح خوارزميات جديدة، والتنبؤ بالخوارزميات التي قد تنجح، وتقدير كمية البيانات المطلوبة، وتوقع حالات الفشل المحتملة.

وعلى عكس النهج الشائع في تعلم الآلة الذي يركز غالبًا على تحسين الدقة فقط، تبنّى الباحثون منظورًا فيزيائيًا، حيث يوضح عبدالعليم أنهم يريدون فهم لماذا وكيف يعمل النظام، بدلاً من الاكتفاء بكونه يعمل، وقد بدأ العمل بساعات طويلة من الحسابات اليدوية وتجريب المعادلات، ثم العودة لنقطة البداية بعد اكتشاف مسارات خاطئة.

يتذكر الفريق لحظة الاختراق العلمي عندما توصلوا إلى مبدأ موحد يصف المقايضة بين ضغط البيانات وإعادة بنائها، وعند اختبار النموذج على مجموعتين مختلفتين من البيانات، لاحظوا أن الإطار الجديد استطاع تلقائيًا اكتشاف الخصائص المشتركة والمهمة بينهما، ويعبر مارتيني عن شعورهم بالإنجاز في تلك اللحظة.

أظهر الباحثون أن الإطار الجديد يمكن أن يقلل كمية البيانات المطلوبة للتدريب، ويخفض استهلاك القدرة الحاسوبية، ويقلل الأثر البيئي لتشغيل أنظمة الذكاء الاصطناعي، ويشير نيمينمان إلى أنه عندما نتجنب ترميز معلومات غير مهمة، نحتاج إلى طاقة أقل، مما يجعل الأنظمة أكثر كفاءة وأقل ضررًا للبيئة.

يأمل الباحثون أن يستخدم الآخرون هذا الإطار لتطوير خوارزميات مخصصة لأسئلة علمية معقدة، خاصة في مجالات مثل علم الأحياء، والإدراك والدماغ، وتحليل الأنظمة المعقدة، ويختتم عبدالعليم بقوله إنه يريد فهم كيف يعالج الدماغ البشري مصادر متعددة من المعلومات في الوقت نفسه، وإذا استطاعوا مقارنة نماذج التعلم الآلي بآليات الدماغ، فقد يفهمون الاثنين بشكل أفضل.