أصدر مركز تريندز للبحوث والاستشارات دراسة جديدة من إعداد الباحثة نورة المزروعي، تناولت موضوع مهم يتعلق بالذكاء الاصطناعي، وهو الشفافية وقابلية التفسير في النماذج المعقدة المعروفة بـ”الصندوق الأسود” التي يصعب فهم آليات اتخاذ القرار فيها، وأشارت المزروعي إلى أن الاستخدام المتزايد للذكاء الاصطناعي في مجالات حساسة مثل الرعاية الصحية والتمويل زاد من المطالب بفهم كيفية عمل هذه الأنظمة، مما أدى إلى تحرك عالمي لوضع أطر تنظيمية واضحة تضمن الشرح والمساءلة.

تصدرت جهود الاتحاد الأوروبي في هذا المجال عبر “قانون الذكاء الاصطناعي الأوروبي”، الذي يعد الأول من نوعه في إلزام توفير تفسيرات مفهومة لقرارات الأنظمة الذكية، كما أن هناك دولاً أخرى بدأت في دمج مبادئ الشفافية والتفسير ضمن استراتيجياتها الوطنية، رغم اختلاف مستويات الالتزام بين الدول.

تحدثت الدراسة عن التحديات التي تواجه المؤسسات العالمية في تطبيق مفهوم “الذكاء الاصطناعي القابل للتفسير” (XAI)، خاصة مع تزايد تعقيد نماذج التعلم العميق، حيث غالباً ما تأتي الدقة العالية على حساب الشفافية وسهولة الفهم، وذكرت بعض الأساليب التقنية لتعزيز الشفافية، مثل النماذج الهجينة التي تجمع بين الأنظمة القابلة للتفسير والنماذج المعقدة، وأدوات التفسير البصري مثل GRADCAM التي تساعد المستخدمين على رؤية المناطق أو البيانات الأكثر تأثيراً في قرارات الذكاء الاصطناعي.

وأكدت الدراسة أن تعزيز الشفافية يتطلب أيضاً تعاوناً مؤسسياً عبر القطاعات المختلفة، مع ضرورة وضع معايير دولية مشتركة لضمان اتساق الحوكمة والالتزام بالقيم الأخلاقية، وأشادت بدور منظمات مثل ISO وIEEE في توحيد الجهود وتطوير أطر عمل معيارية تسهم في بناء الثقة بين المطورين والمستخدمين وصناع القرار.

في النهاية، أكدت الدراسة على أهمية تحقيق توازن بين الأداء والشفافية، وضرورة تكامل الجوانب التقنية والتنظيمية والأخلاقية، مشددة على الحاجة إلى مزيد من البحث والتعاون الدولي لتطوير حلول قابلة للتطبيق تتماشى مع سرعة التطور في هذا المجال الحيوي.