في زمن تتطور فيه تقنيات الذكاء الاصطناعي بشكل سريع، أصبح بإمكاننا رؤية مقاطع فيديو وصوتيات تبدو واقعية لأشخاص يقومون بأفعال أو يقولون أشياء لم تحدث بالفعل، وهذه الظاهرة لم تعد مقتصرة على الأبحاث أو الترفيه، بل أصبحت أداة قوية للتضليل الإعلامي وابتزاز الأفراد ونشر الشائعات، وحتى التأثير على الاستقرار السياسي والاجتماعي.
الدكتور محمد محسن رمضان، رئيس وحدة الذكاء الاصطناعي والأمن السيبراني بمركز العرب للأبحاث والدراسات، حذر من أن هذه التقنيات تمثل تهديدًا غير مسبوق لمصداقية الأخبار، وأشار إلى أن أدوات التزييف أصبحت سهلة الاستخدام وذات دقة عالية، مما يعني أن أي شخص يمكنه إنتاج محتوى مزيف في دقائق قليلة.
من جهة أخرى، أدوات كشف التزييف أصبحت متاحة للجميع، ومن أبرزها:
- Deepfake Detection: تقوم بتحليل البكسلات وحركة الوجه والصوت للكشف عن المحتوى المزيف
- Copyleaks: تستخدم قواعد بيانات ضخمة لمقارنة الصور والفيديوهات وكشف التزوير
- Arting AI: تكشف الصور المثالية جدًا والمزيفة من خلال تحليل التشوهات الدقيقة
- InVID – WeVerify: تفكك الفيديوهات إلى لقطات ثابتة وتكشف عن استخدام مقاطع قديمة في سياقات مضللة
اللواء محمد رجائي، مساعد وزير الداخلية المصري الأسبق، أشار إلى وجود علامات أولية يمكن أن تساعد في اكتشاف التزييف، مثل حركة العين غير الطبيعية، والصوت الذي لا يتناسب مع تعابير الوجه، واختلاف الإضاءة، أو الظلال غير الواقعية، لكنه أوضح أن هذه العلامات وحدها لا تكفي، ويجب دمجها مع أدوات التحليل المتقدمة.
للحماية من هذه المخاطر، ينصح الخبراء بعدم إعادة نشر أي محتوى صادم قبل التأكد من صحته، واستخدام أكثر من أداة كشف، وتفعيل إعدادات الخصوصية، والاحتفاظ دائمًا بالنسخ الأصلية للصور والفيديوهات، ومع سرعة انتشار المحتوى الرقمي، أصبح التحقق الرقمي أمرًا ضروريًا لتجنب الوقوع ضحية للتزييف العميق.

