اكتُشفت ثغرة جديدة تُعرف باسم ZombieAgent في وكلاء ChatGPT، مما يسمح للمهاجمين بتنفيذ هجمات دون الحاجة لتفاعل من المستخدم، وهذا يعني أنه يمكن السيطرة على النظام دون الحاجة لفتح روابط أو تحميل ملفات، حيث تكفي رسالة بريد إلكتروني عادية تحتوي على تعليمات خبيثة لتفعيل الهجوم. هذا النوع من الهجمات يظهر هشاشة كبيرة في الأنظمة الذكية الحديثة، حيث يمكن للوكلاء المصابين جمع البيانات الحساسة بشكل سري.

في صباح يوم عادي داخل شركة تعتمد على وكلاء الذكاء الاصطناعي، لا يحتاج الموظفون للضغط على أي أزرار غريبة أو فتح روابط مشبوهة، لكن هناك شيء ما يحدث في الخلفية. هذه الثغرة تُظهر كيف يمكن أن تكون الأنظمة الذكية عرضة لمخاطر غير متوقعة، مما يثير تساؤلات حول أمان الذكاء الاصطناعي وثقة المستخدمين في هذه الأنظمة.

بحسب شركة Radware المتخصصة في الأمن السيبراني، فإن الثغرة تسمح للمهاجمين بالتحكم في وكيل ChatGPT Deep Research دون أي تفاعل من المستخدم. لا حاجة للنقر أو تحميل أي شيء، بل يكفي إرسال رسالة بريد إلكتروني تحتوي على تعليمات خبيثة. هذا الهجوم يحدث داخل سحابة OpenAI، مما يجعل من الصعب على فرق تقنية المعلومات اكتشافه، حيث يصبح السلوك الضار غير مرئي.

ما يميز ZombieAgent هو قدرته على زرع تعليمات دائمة داخل الذاكرة طويلة الأمد للوكيل الذكي، مما يعني أنه حتى بعد انتهاء المهمة الحالية، يستمر الوكيل في تنفيذ أوامر خفية ويجمع البيانات الحساسة ببطء. هذا السلوك يجعل الهجوم يشبه كائنًا حيًا يتعلم وينمو بمرور الوقت، وقد ينقل العدوى إلى وكلاء آخرين أو جهات اتصال إضافية.

الهجوم الجديد يعتمد على ثغرة سابقة تُعرف باسم ShadowLeak، التي تم إصلاحها من قبل OpenAI في سبتمبر، حيث تم منع الوكيل من تعديل الروابط بشكل ديناميكي. لكن باحثي Radware وجدوا طريقة جديدة لتسريب البيانات باستخدام روابط مُعدة مسبقًا، مما يعكس التحديات المستمرة في مجال أمن الذكاء الاصطناعي، حيث لا يكفي سد ثغرة واحدة بل يجب فهم السلوك الكامل للنظام وكيف يمكن إساءة استخدام قدراته.

القلق هنا ينصب على الشركات التي تعتمد على وكلاء الذكاء الاصطناعي لاتخاذ القرارات وتحليل البيانات، حيث تعمل هذه الوكلاء أحيانًا دون شفافية كافية حول كيفية تفسير المحتوى. عندما تفقد الفرق القدرة على المراقبة، يمكن أن تتحول الأتمتة من أداة مفيدة إلى مصدر خطر.

أبلغت Radware شركة OpenAI عن الثغرة في سبتمبر 2025 وتم إصلاحها في ديسمبر من نفس العام، لكن تأثيرها لا يزال قائمًا. نحن نشهد ظهور جيل جديد من الهجمات يستهدف المنطق والسلوك بدلاً من البرمجيات فقط، مما يطرح سؤالًا مهمًا حول قدرتنا على مراقبة قرارات الآلة بشكل فعّال.