منذ بداية عصر الطاقة النووية، كانت هناك محاولات مستمرة من قبل صانعي السياسات والمخططين الاستراتيجيين لمنع أي دولة من استخدام أسلحتها النووية عن طريق الخطأ، ومع ذلك، يبقى خطر الحوادث كما هو منذ زمن الحرب الباردة. في عام 1983، حدثت واقعة مثيرة للقلق عندما أظهرت منظومة الإنذار المبكر السوفياتية إنذاراً كاذباً بوجود هجوم نووي أمريكي. لو لم يتدخل ستانيسلاف بيتروف، الذي كان في نوبة العمل حينها، لكان الوضع قد تطور إلى هجوم مضاد كارثي. هذا التهديد لا يزال حاضراً، خاصة مع التطورات التكنولوجية في مجال الذكاء الاصطناعي.
انتشار تقنيات الذكاء الاصطناعي زاد من القلق بشأن الاستقرار النووي، إذ تخشى الدول من أن تفوض قرارات استخدام الأسلحة النووية للآلات. لكن الولايات المتحدة وضعت ضمانات للحفاظ على السيطرة البشرية في هذه القرارات، حيث تنص “استراتيجية الدفاع الوطني لعام 2022” على ضرورة بقاء الإنسان في حلقة اتخاذ القرار. هذا الاتفاق بين الرئيس الأمريكي جو بايدن والزعيم الصيني شي جينبينغ يؤكد على أهمية السيطرة البشرية في هذا المجال.
لكن الذكاء الاصطناعي يحمل مخاطر أخرى، منها انتشار تقنيات “التزييف العميق” التي تستخدم لتوليد معلومات زائفة. في عام 2022، انتشر مقطع مزيف يظهر الرئيس الأوكراني زيلينسكي يدعو الأوكرانيين للاستسلام، وفي عام 2023، تم تداول مقطع زائف آخر يظهر الرئيس الروسي بوتين يعلن تعبئة شاملة. مثل هذه التقنيات يمكن أن تؤدي إلى سوء فهم كبير، حيث يمكن أن تقنع زعماء دول نووية بوجود تهديدات غير حقيقية.
إدارة ترمب كانت تسعى لاستخدام الذكاء الاصطناعي في تعزيز الأمن القومي، لكن من الضروري أن يكون هناك حذر شديد في كيفية استخدام هذه التقنيات في القرارات النووية. يجب أن تبقى السيطرة بيد البشر، حتى مع تطور الذكاء الاصطناعي، حيث يواجه هذا المجال تحديات مثل الهلوسة والتضليل المتعمد.
في وقت لاحق، زادت التحديات مع تزايد استخدام التزييف العميق في وسائل الإعلام، مما يزيد من صعوبة التمييز بين المعلومات الحقيقية والزائفة، مما قد يؤثر على القرارات الحساسة المتعلقة بالأمن القومي. إذا تمكنت معلومات مضللة من خداع القادة، فقد تؤدي إلى عواقب وخيمة على مستوى العالم، حيث لا يوجد أي التزام قانوني للرئيس الأمريكي بالتشاور مع أي جهة قبل إصدار أوامر باستخدام الأسلحة النووية.
تحتفظ الولايات المتحدة وروسيا بقواتهما النووية في حالة استعداد دائم، مما يعني أن القادة لديهم وقت محدود لتقييم التهديدات. في حال رصد نظام الإنذار المبكر تهديداً، يسعى المسؤولون للتحقق منه باستخدام مصادر متعددة، لكن المعلومات المضللة قد تؤدي إلى أزمات متكررة.
في يوليو 2025، طلبت وزارة الدفاع من الكونغرس تمويلاً لتطوير تقنيات جديدة في أنظمة القيادة والسيطرة النووية. يجب أن يقتصر استخدام الذكاء الاصطناعي على مجالات معينة، حيث إن إدماجه في أنظمة الإنذار النووي قد يحمل مخاطر كبيرة.
اليوم، يبدو أن خطر اندلاع حرب نووية أكبر مما كان عليه من قبل، في ظل التوترات المتزايدة بين القوى النووية. لذا، من المهم أن يبقى البشر هم من يتخذون القرارات، بدلاً من الآلات التي قد لا تكون دقيقة. يجب على أجهزة الاستخبارات تحسين قدراتها على تتبع المعلومات، وتوحيد المعايير لضمان دقة المعلومات المستخدمة في صنع القرار.
يجب أن تبقى السياسات النووية محصنة ضد المعلومات المضللة، حيث إن الذكاء الاصطناعي يمكن أن يكون له تأثير كبير على القرارات الحاسمة. لذلك، من الضروري أن يتم إعادة تقييم السياسات الحالية لضمان أن تبقى السيطرة بيد البشر، مما يساهم في تجنب أي سوء فهم قد يؤدي إلى عواقب وخيمة.

