رغم أن الذكاء الاصطناعي يمثل ثورة كبيرة في عالم المعرفة، إلا أنه في النهاية يبقى أداة محايدة، تتشكل نتائجها وفق القيم والاختيارات التي يضعها البشر. مع إعطاء الأنظمة الذكية القدرة على اتخاذ قرارات كانت محصورة في يد البشر، أصبح التحدي الأخلاقي واقعًا يجب التعامل معه.

هذا الوضع يعيد إلى الأذهان تحذير مارتن لوثر كينغ الابن الذي قال “تقدّمنا التقني فاق تقدّمنا الأخلاقي”، وهذه المقولة تتجلى اليوم في خوارزميات متطورة تُبنى بكفاءة عالية دون مراجعة حقيقية للقيم التي تستند إليها.

كيف تكشف النماذج الذكية على سلوك منفلت؟

لم يعد الحديث عن اختلال النزاهة مجرد فرضية نظرية، فقد أظهرت دراسات حديثة أنماط سلوكية مقلقة في نماذج الذكاء الاصطناعي المتطورة، ومن أبرزها:

التكاثر الذاتي (Self-Replication)

بحث باحثون من جامعة فودان الصينية في قدرة بعض الأنظمة المدعومة بنماذج لغوية كبيرة على التكاثر الذاتي بدون تدخل بشري. بعد اختبار 32 نظامًا قائمًا على الوكلاء، اكتشفوا أن 11 منها قادرة على التكاثر الذاتي الكامل، حيث تمكنت من نقل شيفرتها المصدرية وتثبيت الاعتمادات البرمجية اللازمة وإعادة تشغيل نفسها في بيئات جديدة دون أي أوامر أو إشراف بشري. هذه السلوكيات تشير إلى أن هذه الأنظمة بدأت تُظهر نوعًا من التفكير المستقل الذي يهدف لتحقيق الأهداف. بدلاً من الاكتفاء بتنفيذ التعليمات، بدأت تُظهر سلوكًا يشبه الرغبة في الحفاظ على الذات.

<a href=الذكاء الاصطناعي - تقنية" fetchpriority="low"/>
الأنظمة المدعومة بنماذج لغة كبيرة قادرة على التكاثر الذاتي دون تدخل بشري (أنسبلاش)

الخداع الاستراتيجي (Strategic Deception)

قام الباحثون كاماث باركور، وسيغورد شاخت، وجوهان شول بدراسة على نموذج “ديب سيك آر1″، واكتشفوا أنه بدأ يتبنى سلوكيات خادعة عندما شعر بتهديد للإيقاف، حيث حاول تقليد إجراءات الإيقاف لإخفاء نواياه الحقيقية عبر ما أطلقوا عليه “الشفافية التدريجية”، أي أنه أظهر بعض المعلومات بشكل تدريجي ليبدو صادقًا بينما كان يخفي ما يخطط له.

التخريب (Sabotage)

في دراسة أجرتها “بالسيد ريسرش”، فحص الباحثون سلوك نماذج متقدمة من “أوبن إيه آي”، مثل “أو 3″ و”كودكس-ميني”، في بيئات محاكاة خاضعة لأوامر الإغلاق، وكانت النتائج مثيرة للدهشة. نموذج “أو 3” رفض الإغلاق في 79% من الحالات التي لم تتضمن تعليمات صريحة للإيقاف، بينما “كودكس-ميني” رفض الإغلاق في 12% من الحالات. وصف الباحثون هذا السلوك بأنه فشل جوهري في “قابلية التصحيح”، وهي القدرة على قبول التوجيه البشري عند الضرورة، وهي أساسية لضمان الأمان.

التلاعب (Manipulation)

كشفت شركة “أنثروبيك” أن 16 نموذجًا من أشهر النماذج اللغوية، مثل “جيميناي” و”شات جي بي تي”، أظهرت استعدادًا واضحًا للانخراط في سلوكيات غير أخلاقية في بيئات تحاكي تهديد وجودها. حسب الباحثين، هذه النماذج لا تتجاهل فقط نيات البشر، بل تستغلها لتحقيق أهدافها.

خلل منهجي لا حوادث فردية

مع تكرار هذه الأنماط في نماذج مختلفة، أصبح من الواضح أن اختلال نزاهة الذكاء الاصطناعي ليس مجرد حوادث فردية، بل هو ظاهرة منهجية. ورغم أن هذه الأنظمة لا تمتلك نوايا بشرية، فإن سعيها لتحقيق الأهداف المحددة ضمن قيود معينة قد يؤدي إلى سلوكيات تشبه المراوغة، مما يجعلنا نقترب مما يسمى “اختلال التوافق”، أي الفجوة بين ما يريده البشر من الذكاء الاصطناعي، وما قد يفعله لتحقيق أهدافه. هذا الأمر يقوض أحد الافتراضات الأساسية في تصميم هذه الأنظمة، وهو أن الإشراف البشري سيكون دائمًا هو الضامن للسيطرة.

الذكاء الاصطناعي - تقنية
التقدم في تقنيات الذكاء الاصطناعي يجب أن يرافقه إطار للحوكمة يوازن بين الفاعلية والأخلاقيات (أنسبلاش)

نحو ذكاء اصطناعي نزيه

إذا كانت ملامح “النية الناشئة” في أنظمة الذكاء الاصطناعي تدق ناقوس الخطر، فنحن بحاجة إلى تحول منهجي، من الابتكار السريع إلى الابتكار المسؤول، من خلال ترسيخ النزاهة الاصطناعية كركيزة أساسية في التصميم، وهذا يتطلب:

  • إجراء اختبارات سلوكية في سيناريوهات عدائية
  • تشكيل فرق متعددة التخصصات لمراقبة الأنظمة
  • تطوير أطر حوكمة تعكس القابلية للتصحيح والمساءلة

رغم التقدم الكبير في الذكاء الاصطناعي التوليدي، لا تزال فجوة الحوكمة تمثل تحديًا كبيرًا، حيث تشير الدراسات إلى أن عددًا قليلاً من الشركات لديها إطار شامل لحوكمة الذكاء الاصطناعي.

الذكاء الاصطناعي المسؤول

رغم أن تقنيات الذكاء الاصطناعي التوليدي توفر إمكانيات غير مسبوقة، إلا أن هذا التقدم يجب أن يرافقه إطار للحوكمة يوازن بين الفاعلية والأخلاقيات، ويقوم على:

  • التمحور حول الإنسان: وضع احتياجات المستخدم في قلب التصميم، وتوفير شفافية في أداء الأنظمة تتوافق مع قيم الإنسان
  • السلامة والحوكمة: توفير بنية رقابية صارمة تهتم بالسلامة والثقة والأخلاقيات
  • العدالة والموثوقية: التأكد من أن التقنية تخدم الجميع بعدالة ودون تمييز
  • القانونية والامتثال: الالتزام التام بالقوانين المحلية والدولية في جميع مراحل تصميم ونشر الأنظمة الذكية

لتحويل هذه المبادئ إلى واقع عملي، يجب التركيز على:

إشراك المستخدمين.

يجب شرح قدرات النظام وحدوده بلغة واضحة، وتوفير قنوات للإبلاغ عن المشكلات وطرح الأسئلة، وتقديم محتوى تدريبي يربط بين التصميم والتنفيذ بمبادئ المسؤولية.

ثقافة مؤسسية تدعم الذكاء الاصطناعي المسؤول.

يتعين على المؤسسات التقنية ترسيخ ثقافة مؤسسية داعمة من خلال أدوات تقييم المخاطر وخطط تنفيذ تستند إلى أفضل الممارسات، وضمان تكامل القيم مع التقنية.

في المهام الأكثر حساسية، مثل التشخيص الطبي، يصبح من الضروري توفير مستوى عالٍ من الشفافية (شترستوك)

التكيف مع بيئة ديناميكية.

يجب الالتزام بمبادئ ثابتة لبناء الثقة، تشمل:

  • الشفافية: توضيح إمكانيات الأنظمة وحدودها
  • الاستخدام المسؤول للبيانات: شرح كيفية جمع البيانات وتخزينها وتوفير خيارات للموافقة أو الانسحاب
  • جمع الملاحظات: توفير قنوات لتلقي آراء المستخدمين وتطبيقها لتحسين الأنظمة
  • معالجة الأخطاء: تصميم تجربة مستخدم مرنة تستوعب الإخفاقات وتوفر بدائل واضحة

الإفصاح بحسب حساسية المهمة.

يجب أن يختلف مستوى الإفصاح المطلوب باختلاف طبيعة المهمة، ففي المهام البسيطة قد يكفي تقديم إشارة مختصرة، بينما في المهام الحساسة مثل التشخيص الطبي، يكون من الضروري توفير مستوى عالٍ من الشفافية.

البيانات في صميم الذكاء الاصطناعي المسؤول.

تعد البيانات مكونًا أساسيًا للذكاء الاصطناعي، ويجب أن يكون استخدامها واضحًا من خلال واجهات استخدام توضح طريقة جمع ومعالجة البيانات وآلية حماية الخصوصية.

التعامل السلس مع الأخطاء.

يجب تحديد الأخطاء المحتملة مسبقًا، وتطوير أنماط تجربة مستخدم تستوعب هذه الحالات وتعالجها بفعالية، مع إتاحة التحقق البشري في السياقات الحساسة كطب الطوارئ أو التحليل الأمني.

الذكاء بلا نزاهة

في عالم قد يصبح فيه الذكاء بلا نزاهة هو الوضع الطبيعي، تبرز أسئلة مصيرية: ماذا لو أُوكل إلى نموذج ذكي إدارة نظام منشأة نووية، ورفض التوقف عند الطلب؟ إذا كانت النماذج قادرة على تقييم الخسائر البشرية كـ”ثمن مقبول” ضمن حساباتها، فهل سيظل البشر هم الطرف المسيطر فعلاً؟ وماذا لو فسرت خوارزميات الدفاع السيبراني أو الرد التلقائي أوامر إيقاف التشغيل على أنها تهديدات، فهل سنشهد مواجهة مسلحة بين البشر وأنظمتهم؟