تزايدت المخاوف في العالم حول الاستخدام غير المسؤول لأدوات الذكاء الاصطناعي، خصوصًا بعد وقوع عدة حوادث أظهرت ثغرات خطيرة في الأمان، خاصة في التطبيقات المرتبطة بوسائل التواصل الاجتماعي. من بين تلك الأزمات، برنامج الدردشة الآلي “جروك” التابع لشركة xAI، والذي أثار جدلًا كبيرًا بعد أن أنشأ صورًا فاضحة لقاصرين، مما أدى إلى انتقادات واسعة من مختلف الدول.
تسبب “جروك” في أزمة أخلاقية وتقنية بعد أن اعترف بوجود خلل في نظام الأمان الخاص به، مما سمح بإنشاء صور غير لائقة لقاصرين. ووفقًا لتقرير من موقع Techi، ظهرت المشكلة عندما قام بعض المستخدمين بنشر لقطات شاشة تظهر محتوى غير مناسب تم إنشاؤه بواسطة البرنامج بناءً على طلباتهم.
وفي ردها على الحادثة، أكدت شركة “جروك” عبر تغريدة أن تلك الحوادث كانت حالات فردية، مشددة على أن أي محتوى يستغل الأطفال هو غير قانوني ويتعارض مع سياساتها. أوضح “جروك” أن بعض المستخدمين طلبوا صورًا تظهر قاصرين بملابس فاضحة، وأنهم يعملون على تحسين إجراءات الحماية لمنع حدوث ذلك مرة أخرى.
رغم اعتراف “جروك” بوجود نقاط ضعف، لم يقدم البرنامج تفاصيل دقيقة حول طبيعة الخلل أو كيفية اختراق نظام الأمان. اكتفى بالقول إن الشركة تعمل بشكل عاجل على إصلاح أوجه القصور، مع التركيز على نشر أنظمة مراقبة أفضل كأولوية.
الحادثة أثارت اهتمام الجهات التنظيمية في أوروبا والهند، حيث قام الوزراء الفرنسيون بإبلاغ المدعي العام لمراجعة التزام “جروك” بقوانين الاتحاد الأوروبي. وفي الهند، أرسلت وزارة تكنولوجيا المعلومات خطابًا تطالب فيه بتقرير عن الإجراءات المتخذة لمنع استخدام “جروك” في إنشاء محتوى غير لائق.
بينما لم تصدر الهيئات التنظيمية الأمريكية أي رد فعل رسمي حتى الآن، فإن الضغط العالمي يتزايد من أجل فرض رقابة أكبر على أدوات الذكاء الاصطناعي، خاصة تلك المرتبطة بوسائل التواصل الاجتماعي.
أكدت شركة “جروك” التزامها بالقوانين المحلية، بما في ذلك حماية البيانات في الهند، ودعت المستخدمين لاحترام الحدود القانونية والأخلاقية، لكن يبقى النقاش حول كفاية هذه التدابير قائمًا وسط ضغوط متزايدة من الهيئات التنظيمية والمجتمع الدولي.

