أصدر مركز تريندز للبحوث والاستشارات دراسة جديدة بعنوان «فك شفرة الصندوق الأسود للذكاء الاصطناعي: الجهود العالمية نحو الشرح والشفافية»، أعدتها الباحثة نورة المزروعي، التي تدير إدارة الذكاء الاصطناعي والتكنولوجيا بالمركز، تناولت الدراسة موضوع مهم يتعلق بالذكاء الاصطناعي، وهو الشفافية وقابلية التفسير في النماذج المعقدة، والتي تعرف بـ«الصندوق الأسود»، حيث يصعب فهم كيفية اتخاذ القرارات فيها، وذكرت المزروعي أن زيادة استخدام الذكاء الاصطناعي في مجالات حساسة مثل الرعاية الصحية والتمويل أدت إلى مطالبات من الجهات التنظيمية والمجتمعات بفهم طريقة عمل هذه الأنظمة، مما أسفر عن جهود عالمية لوضع أطر تنظيمية واضحة تضمن الشرح والمساءلة
أوضحت الدراسة أن الاتحاد الأوروبي يتصدر الجهود التنظيمية من خلال «قانون الذكاء الاصطناعي الأوروبي»، الذي يعد أول إطار قانوني شامل يلزم بتوفير تفسيرات مفهومة لقرارات الأنظمة الذكية، كما أشارت إلى أن العديد من الدول بدأت في دمج مبادئ الشفافية والتفسير ضمن استراتيجياتها الوطنية للذكاء الاصطناعي، رغم اختلاف مستويات الالتزام بين الدول.
سلطت الدراسة الضوء على التحديات التي تواجه المؤسسات العالمية في تطبيق مفهوم الذكاء الاصطناعي القابل للتفسير، خاصة مع تعقيد نماذج التعلم العميق، حيث غالباً ما يكون تحقيق دقة تنبؤية أعلى على حساب الشفافية وسهولة الفهم، وتطرقت إلى أبرز الأساليب التقنية لتعزيز الشفافية، مثل النماذج الهجينة التي تجمع بين الأنظمة القابلة للتفسير والنماذج المعقدة، وكذلك أدوات التفسير البصري مثل GRADCAM، التي توضح للمستخدمين المناطق أو البيانات الأكثر تأثيراً في قرارات الذكاء الاصطناعي، بالإضافة إلى تطوير واجهات تفاعلية تساعد في فهم مخرجات الأنظمة.
أكدت الدراسة أن تعزيز الشفافية يحتاج إلى أكثر من مجرد جوانب تقنية، بل يتطلب تعاوناً مؤسسياً عبر القطاعات المختلفة، ووضع معايير دولية مشتركة لضمان الاتساق في الحوكمة والالتزام بالقيم الأخلاقية، واختتمت الدراسة بالتأكيد على أن الطريق نحو ذكاء اصطناعي مسؤول وموثوق يتطلب توازناً بين الأداء والشفافية، وتكاملاً بين الجوانب التقنية والتنظيمية والأخلاقية، ودعت إلى مزيد من البحث والتعاون الدولي لتطوير حلول قابلة للتطبيق تتماشى مع سرعة التطور في هذا المجال الحيوي.

