فرضت منصة إكس، المعروفة سابقًا بتويتر، قيودًا جديدة على استخدام نموذج الذكاء الاصطناعي “غروك” بعد أن استغل بعض المستخدمين قدراته في إنشاء صور تُظهر أشخاصًا بلا ملابس بناءً على صورهم الأصلية، مما أثار انتقادات واسعة تتعلق بالخصوصية والأمان الرقمي، وبدلاً من معالجة المشكلة بشكل جذري، اكتفت الشركة بتقليص الوصول إلى “غروك” وتعديل بعض سياسات الاستخدام، وهو ما يعتبره خبراء في الذكاء الاصطناعي خطوة غير كافية لحماية المستخدمين من إساءة الاستخدام.

استغلال “غروك” في إنشاء صور مُسيئة

تعود المشكلة إلى قيام بعض المستخدمين بتجربة قدرات “غروك” في معالجة الصور، حيث حاولوا دفع النموذج لإنتاج نسخ “منزوعة الملابس” من صور شخصية حقيقية، وهذا النوع من الممارسات يُعرف في الأوساط التقنية باسم “نزع الملابس رقميًا” أو AI Undressing، وتُعتبر هذه الأفعال شكلًا من أشكال العنف الرقمي والاعتداء على الخصوصية، إذ يمكن أن تُستخدم لتشويه سمعة الأفراد أو ابتزازهم أو نشر محتوى إباحي غير حقيقي، مما يضع منصات التقنية تحت ضغط أكبر لتطبيق آليات حماية أكثر فعالية.

إجراءات إكس: التقييد بدلاً من الإصلاح

ردًا على هذه الحوادث، قررت إكس تقليص عدد المستخدمين الذين يمكنهم الوصول إلى “غروك” أو بعض قدراته، وربطت الاستخدام بمستويات اشتراك معينة، بالإضافة إلى تعزيز بنود سياسة الاستخدام لمنع إنشاء محتوى جنسي أو مُسيء يعتمد على صور حقيقية، لكن هذه الإجراءات تركز على من يستطيع استخدام الأداة أكثر من التركيز على كيفية عمل الأداة نفسها، فبدلاً من تعديل النموذج أو وضع ضوابط تقنية تمنع إنتاج هذا النوع من الصور، اكتفت المنصة بالتشديد على من يُسمح له بالوصول، مما يبقي احتمالات إساءة الاستخدام قائمة، خاصة مع سهولة مشاركة النتائج خارج المنصة.

مخاوف متزايدة حول السلامة والخصوصية

تسلط هذه الحوادث الضوء على إشكالية أكبر تتعلق بنماذج الذكاء الاصطناعي وقدرتها على إنتاج صور واقعية للغاية لأشخاص حقيقيين في مواقف لم تحدث فعليًا، مثل الصور العارية المزيفة أو محتوى “الديب فيك”، مما يثير أسئلة قانونية وأخلاقية معقدة، ويحذر خبراء الخصوصية من أن هذه التكنولوجيا يمكن أن تُستخدم لاستهداف الأفراد العاديين، وليس فقط المشاهير، من خلال التنمر الإلكتروني أو الابتزاز، مما يتطلب من الشركات المشغلة لهذه النماذج اتخاذ خطوات حقيقية لتحييد مخاطرها.

دعوات لإصلاحات تقنية وتشريعية

تزايدت الدعوات من الأوساط التقنية والقانونية لتضمين ضوابط فنية داخل نماذج الذكاء الاصطناعي تمنع استخدامها في “نزع الملابس” أو إنتاج محتوى جنسي غير توافقي، مثل تدريب النموذج على رفض مثل هذه الطلبات، كما يُطالب مختصون بسن تشريعات واضحة تُجرّم إنتاج أو مشاركة الصور المزيفة التي تنتهك الخصوصية، وتحميل الشركات التقنية جزءًا من المسؤولية في حال إهمالها اتخاذ إجراءات حماية كافية، بما في ذلك توفير آليات سهلة وسريعة للإبلاغ عن المحتوى المسيء.

ورغم أن خطوة إكس في تقييد الوصول إلى “غروك” تعكس اعترافًا بوجود مشكلة، إلا أن الكثيرين يرون أنها لا ترتقي إلى مستوى الإصلاح المطلوب، مما يترك الباب مفتوحًا للنقاش حول التزام المنصة وغيرها من مقدمي خدمات الذكاء الاصطناعي بحماية المستخدمين من تداعيات سوء استخدام هذه التقنيات.