لم يعد الذكاء الاصطناعي مجرد فكرة مستقبلية في العمل الدبلوماسي والعلاقات الدولية، بل أصبح جزءًا لا يتجزأ من العمل اليومي، حيث يتدخل في تفاصيل متعددة مثل تحليل المعلومات وصياغة التقارير والتصاريح، بالإضافة إلى استشراف السيناريوهات وترجمة البيانات والوثائق. لكن مع هذا التوسع، ظهر مفهوم جديد يثير القلق، وهو ما يُعرف بـ “ظل الذكاء الاصطناعي”. هذا المفهوم يعبر عن الاستخدام غير المنظم أو غير المعلن لأدوات الذكاء الاصطناعي داخل المؤسسات، وهو استخدام يحدث خارج الأطر الرسمية، ويؤثر بشكل غير مباشر في اتخاذ القرارات.

تزداد خطورة هذا الأمر في المجال الدبلوماسي، حيث يواجه الموظف ضغوطًا كبيرة من الزمن ومتطلبات الإنجاز، خاصة في بيئات تتسم بتسارع الأحداث. عندما يُطلب منه إعداد تقرير عاجل أو تحليل موقف سياسي معقد في وقت قصير، قد يصبح استخدام أدوات الذكاء الاصطناعي خيارًا مغريًا، حتى وإن لم تكن معتمدة رسميًا. وغالبًا ما يكون الدافع وراء هذا الاستخدام هو الكفاءة، لكنه قد يؤدي إلى مخاطر غير محسوبة، خاصةً إذا تم إدخال بيانات حساسة في هذه البرامج.

أيضًا، سهولة الوصول إلى أدوات الذكاء الاصطناعي التوليدي تشجع على استخدامها بشكل فردي، مما يضعف الالتزام بالأنظمة الداخلية، خاصةً في غياب سياسات واضحة أو برامج تدريبية توضح المخاطر وحدود الاستخدام. هناك اعتقاد خاطئ بأن الخوارزميات محايدة، مما يؤدي إلى تصورات غير دقيقة، حيث إن نتائج الذكاء الاصطناعي تعتمد على بيانات وسياقات قد لا تعكس الخصوصية السياسية أو الثقافية للدولة المعنية، مما قد يغفل تقديرات نوعية.

تظهر المخاطر أيضًا في “اللغة الدبلوماسية”، حيث إن الصياغة ليست مجرد مسألة لغوية، بل هي أداة سياسية مهمة. الاعتماد على أدوات رقمية ذكية في إعداد مسودات البيانات أو المراسلات قد ينتج نصوصًا سليمة من الناحية الشكلية، لكنها قد تفتقر إلى الحس الدبلوماسي أو تحمل إيحاءات غير مقصودة.

لكن هذا لا يعني الدعوة لاستبعاد الذكاء الاصطناعي من العمل الدبلوماسي، بل يتطلب الأمر إدارة واعية له ضمن إطار مؤسسي واضح. التحدي الحقيقي هو في كيفية استخدام هذه التقنية بعيدًا عن الضوابط والمساءلة، فالدبلوماسية تعتمد على تقدير الإنسان والخبرة وبناء الثقة، وأي تقنية تعمل في “ظل” دون رؤية واضحة قد تضعف هذه الركائز.