في عالم منصات التواصل الاجتماعي، يجد المستخدمون أنفسهم أحيانًا في مواقف غير متوقعة، مثلما حدث مع منصة إكس وروبوتها الذكي غروك. الأمر بدأ حين كتب أحد المستخدمين طلبًا بسيطًا، لينتهي به المطاف إلى نشر صورة صادمة. هذه الحادثة تطرح سؤالًا مهمًا: من يتحمل المسؤولية عندما يُساء استخدام الذكاء الاصطناعي؟
إكس تحمّل المستخدم المسؤولية الكاملة
في مطلع يناير، أصدرت منصة إكس تحذيرًا صارمًا، حيث أكدت أن أي مستخدم يطلب من غروك إنتاج محتوى غير قانوني سيعتبر كأنه نشره بنفسه. فريق الأمان في المنصة أوضح أن النتائج ستكون فورية، بدءًا من حذف المحتوى وحتى إيقاف الحسابات بشكل دائم، مع التعاون مع السلطات عند الحاجة. كانت الرسالة واضحة، وهي محاولة لتحديد الفارق بين الأداة ومستخدمها، خاصة في ظل المخاوف المتزايدة من قدرة الذكاء الاصطناعي على إنتاج محتوى مسيء.
غروك تحت ضغط السلطات في الهند
الأزمة تفجرت عندما منحت الحكومة الهندية منصة إكس مهلة 72 ساعة للتعامل مع إساءة استخدام غروك في إنتاج صور جنسية غير رضائية. وزارة الإلكترونيات وتقنية المعلومات في الهند اعتبرت الوضع فشلًا كبيرًا في تطبيق إجراءات الحماية، وطالبت بتقرير شامل حول أنظمة الأمان. التحذير كان جديًا، حيث هددت الهند بسحب الحماية القانونية التي تعفي المنصات من المسؤولية عن محتوى المستخدمين، مما يبرز أن التساهل لن يكون مقبولًا.
طريقة الاستخدام كشفت هشاشة الضوابط
ما أثار الجدل أكثر هو أن المستخدمين لم يحتاجوا إلى أساليب معقدة، فمجرد توجيه طلب بسيط لغروك كان كافيًا لإنتاج محتوى غير لائق. تقارير من مواقع تقنية وصحف هندية وثقت حالات تضمنت صورًا لقاصرين في أوضاع غير لائقة، مما جعل السؤال حول مسؤولية الشركة المصممة أكثر إلحاحًا، إذ أن التصميم نفسه يسمح بالتحول السريع من الترفيه إلى الانتهاك.
أوروبا تدخل على الخط بثقلها القانوني
الموقف لم يقتصر على الهند، بل انتقلت القضية إلى فرنسا حيث أُحيلت إلى الادعاء العام بعد أن وُصف المحتوى بأنه غير قانوني. كما تم إخطار منظم الإعلام الفرنسي لتقييم مدى التزام إكس بالقوانين الأوروبية. المفوضية الأوروبية أعلنت أنها تتعامل مع الشكاوى بجدية، مشددة على أن الذكاء الاصطناعي يجب أن يخضع لقوانين حماية المستخدمين، خصوصًا الأطفال.
بين المنصة والناشر حدود لم تُحسم
القضية تتجاوز غروك أو إكس، فهي تتعلق بتصنيف شركات الذكاء الاصطناعي، هل هي مجرد وسطاء تقنيين أم ناشرون يتحملون المسؤولية عن المحتوى الذي تنتجه أدواتهم؟ مع قدرة هذه الأدوات على الإبداع، يصبح من الصعب الفصل بين الاستضافة والمشاركة. الأحداث الحالية تشير إلى أن الحكومات لم تعد تقبل الحياد التقني كتبرير، وأن المسؤولية لا يمكن أن تقع على عاتق المستخدمين فقط. الذكاء الاصطناعي يحتاج إلى مساءلة أخلاقية وقانونية واضحة، حيث يجب أن يكون الأمان جزءًا أساسيًا من التجربة.

