أصدرت الاستخبارات الداخلية الفرنسية مذكرة تحذر فيها الشركات من المخاطر المتزايدة المرتبطة باستخدام الذكاء الاصطناعي، وأكدت أن هذا الاستخدام قد يؤدي إلى فقدان السيطرة من قبل الموظفين والإدارة، المذكرة تسلط الضوء على جانب أقل شهرة من مهام المخابرات الفرنسية، وهو حماية الأمن الاقتصادي للدولة والشركات، بعيدًا عن مهامها التقليدية في مكافحة التجسس أو الإرهاب أو التدخلات الأجنبية، حسب ما ذكرت صحيفة “لوفيغارو” الفرنسية.

تقر المذكرة بأن الذكاء الاصطناعي أداة قوية لزيادة الإنتاجية، وتعتبره تقدمًا كبيرًا للشركات، لكنها في نفس الوقت تحمل مخاطر عديدة إذا لم يتم استخدامه بحذر داخل بيئة العمل، واستندت الاستخبارات الداخلية الفرنسية في تقريرها إلى ثلاث حالات فعلية لشركات فرنسية واجهت آثارًا سلبية أو سلوكيات محفوفة بالمخاطر نتيجة الاعتماد على الذكاء الاصطناعي.

الحالة الأولى تتعلق بشركة متعددة الجنسيات، حيث قام موظفو قسم تقنية المعلومات بنسخ ولصق مستندات سرية داخل أدوات ذكاء اصطناعي عامة مثل تشات جي بي تي وGemini، ووفقًا للاستخبارات، كان الموظفون يستخدمون هذه الأدوات بشكل روتيني دون إذن من الإدارة، وبعد التدخل، وجهت الشركة موظفيها لاستخدام نسخة مدفوعة من أدوات الذكاء الاصطناعي المملوكة للشركة لتفادي المخاطر، وحذرت الاستخبارات من أن إدخال معلومات داخلية وحساسة إلى أدوات الذكاء الاصطناعي يمثل خطرًا كبيرًا لإعادة استخدام هذه البيانات، خاصة أن بعض الأدوات تخزن البيانات على خوادم في الخارج، مما قد يخضع الشركات لقوانين أجنبية ذات تأثير عابر للحدود، كما أن ربط أدوات الذكاء الاصطناعي بتطبيقات خارجية يزيد من نقاط الضعف ويعرض البيانات للتسريب أو للهجمات السيبرانية.

الحالة الثانية تتعلق بشركة فرنسية توسع أنشطتها خارج البلاد، استخدمت أداة ذكاء اصطناعي لتقييم شركائها التجاريين الحاليين والمحتملين، محللةً البيئة القانونية والضريبية لهم، لكن الشركة لم تقم بأي تحقق بشري إضافي، معتمدة بشكل كامل على النتائج الآلية، وتشير الاستخبارات إلى أن هذا يعكس المخاطر الكبرى للاعتماد المفرط على الذكاء الاصطناعي، مثل انخفاض اليقظة البشرية وفقدان السيطرة على البيانات أو على القرارات التلقائية، حيث يعطي الذكاء الاصطناعي نتائج بناءً على الأرجح إحصائيًا وليس الأكثر دقة أو ملاءمة للسياق، وقد يصل الأمر إلى خلق أحداث وهمية تُعرف بـ”الهلاوس”، مما يمكن أن يؤثر على الآراء والسلوكيات أو يضر بسمعة الشركة.

الحالة الثالثة تتعلق بمحاولة احتيال باستخدام التزييف العميق لشركة فرنسية في القطاع الصناعي، حيث تلقى أحد المسؤولين مكالمة عبر الفيديو من شخص ظهر فيه المدير التنفيذي، طالبًا تحويل أموال لمشروع استحواذ، إلا أن المسؤول شكّ في الموقف وأنهى الاتصال، ليتضح لاحقًا أن الشخص كان محتالًا يستخدم تقنية التزييف العميق لتقليد مظهر وصوت المدير، وحذرت الاستخبارات من أن المخترقين يمكنهم استغلال الذكاء الاصطناعي للتظاهر بالمسؤولين وتحليل بيانات الشركة بسرعة فائقة لتخصيص هجماتهم، كما يمكنهم تعديل البيانات المدخلة في أنظمة الذكاء الاصطناعي لخداع الخوارزميات، مما قد يؤدي إلى أخطاء أو سلوكيات خطيرة في أنظمة حرجة مثل المركبات الذاتية القيادة أو الأجهزة الطبية.

لتجنب هذه المخاطر، توصي الاستخبارات الداخلية الفرنسية الشركات بوضع إطار عمل واضح لاستخدام الذكاء الاصطناعي ضمن سياسات الشركة، واستخدام أدوات ذكاء اصطناعي محلية أو فرنسية لا تتطلب اتصالاً دائمًا بخوادم خارجية، وتدريب الموظفين بانتظام على الاستخدام الآمن للذكاء الاصطناعي، وتجنب إدخال بيانات شخصية أو معلومات حساسة مثل الاسم، الهاتف، العنوان، التحاليل الطبية، والصور في أدوات الذكاء الاصطناعي التوليدية.