شاهدت بالأمس فيديو للدكتور أنس النجداوي، مدير جامعة أبوظبي – فرع دبي، وكان لافتًا أن النسخة الرقمية التي ظهرت كانت مطابقة له تمامًا، وهذا يفتح لنا أفقًا جديدًا لفهم كيف يمكن للذكاء الاصطناعي أن يكون أداة مساعدة في التعليم بدلًا من أن يحل محل الإنسان، وهذا المشهد مثير للإعجاب لكنه يطرح سؤالًا مهمًا عن الحدود القانونية للاستخدام، وما هي المسؤوليات المرتبطة بذلك قبل أن تسبقنا التقنية بخطوات قد تكون صعبة التدارك، وهنا أود أن أشير إلى بعض الأبحاث التي تناولت هذا الموضوع، مثل دراسة أكاديمية للبروفيسور ممدوح العدوان.
النسخة الرقمية، أو ما يُعرف بالتوأم الرقمي، تمثل نقلة نوعية في بيئات التعلم، حيث تتيح تعليمًا مخصصًا وتفاعلًا مستمرًا وتقييمًا يعتمد على البيانات، لكن هذه المزايا تواجه بعض الأسئلة القانونية الهامة مثل: من يملك هذه النسخة الرقمية؟ هل هي امتداد قانوني للشخص أم منتج تقني مستقل؟ ومن يتحمل المسؤولية إذا أنتجت هذه النسخة محتوى مضللاً أو تقييماً خاطئاً أو قراراً تعليمياً أثر سلباً على الطالب؟
المسؤولية القانونية للذكاء الاصطناعي في التعليم لا يمكن أن تترك في منطقة رمادية، فالذكاء الاصطناعي ليس له شخصية قانونية مستقلة وفقًا للقواعد المعمول بها، وبالتالي تقع المسؤولية على عاتق مطور النظام أو الجهة المشغلة أو المؤسسة التعليمية حسب طبيعة الخطأ وعلاقته بالإشراف والرقابة.
الخطأ الناتج عن خلل تقني يختلف عن الخطأ الناتج عن سوء استخدام أو غياب إشراف بشري فعال، وهنا تظهر أهمية تحديد المسؤولية المدنية والجزائية بشكل واضح، وهذا يتطلب الكثير من البحث القانوني المتعمق.
القانون في هذا السياق ليس عائقًا أمام الابتكار، فالبيانات التعليمية تُعتبر من أكثر أنواع البيانات حساسية، واستخدام الذكاء الاصطناعي في التعليم يتطلب الالتزام بمبادئ حماية البيانات والشفافية وقابلية التفسير وعدم التمييز، وهذه المبادئ تُعزز الثقة بين الطالب والمؤسسة التعليمية وتمنع تحول النسخة الرقمية إلى أداة تأثير غير منضبط أو انتهاك غير مرئي للخصوصية.
التجارب الدولية تقدم إطارًا مهمًا، فتوصية اليونسكو لأخلاقيات الذكاء الاصطناعي تؤكد ضرورة وجود الإنسان في الحلقة، وتمنع تفويض القرارات التعليمية الجوهرية إلى الأنظمة الآلية دون إشراف بشري، كما أن التشريع الأوروبي للذكاء الاصطناعي يصنف الأنظمة المستخدمة في التعليم ضمن الأنظمة عالية المخاطر، ويُلزمها بالتزامات قانونية تتعلق بالتقييم المسبق للمخاطر والتوثيق والمساءلة.
في السياق العربي، هناك حاجة ملحة لبناء إطار تشريعي محلي متوازن، وليس المقصود هنا نسخ التجارب الغربية بل مواءمتها مع الخصوصية القانونية والثقافية. وهذا يتطلب تعريف النسخة الرقمية تعريفًا قانونيًا دقيقًا، ووضع قواعد واضحة للمسؤولية عند حدوث أخطاء، مع إلزام المؤسسات التعليمية بالإفصاح عن استخدام الذكاء الاصطناعي وإنشاء آليات تدقيق مستقلة لضمان سلامة المخرجات.
الفيديو الذي قدمه الدكتور أنس النجداوي يعكس لحظة مهمة، فالتقنية جاهزة والخيال التعليمي واسع، لكن العقد القانوني المنظم لهذه العلاقة لم يكتمل بعد، وتنظيم الذكاء الاصطناعي في التعليم ليس مجرد ترف تشريعي بل هو ضرورة لحماية الحقوق وضمان العدالة والحفاظ على جوهر العملية التعليمية، ويجب أن تكمل النسخة الرقمية دور الإنسان دون أن تحل محله، مع وجود ضوابط قانونية وأخلاقية واضحة تتماشى مع الرؤى العالمية في هذا المجال.

