لطالما كان موضوع قدرة البشر على التمييز بين المحادثات التي يجريها إنسان أو ذكاء اصطناعي نقطة نقاش مهمة لتقييم ذكاء الحواسيب. يعود أصل هذا التحدي إلى “اختبار تورينغ” الذي اقترحه عالم الرياضيات آلان تورينغ في عام 1950، حيث اعتبر أن الحاسوب يُعتبر ذكياً إذا استطاع محاكاة سلوك البشر لدرجة تجعل الشخص الذي يختبره غير قادر على التمييز بينهما.

على الرغم من أن التوقعات كانت تشير إلى صعوبة هذا الاختبار، أظهرت الدراسات الحديثة في عام 2025 أن نماذج متطورة مثل “تشات جي بي تي 4.5” تمكنت من إقناع المحكمين بأنها بشر في 73% من الحالات، وهو ما يتجاوز حتى تقييم البشر أنفسهم، مما يعني أننا أمام مرحلة جديدة في تاريخ التفاعل بين الإنسان والآلة.

لعبة التقليد وحجة الغرفة الصينية

اختبار تورينغ يعتمد في جوهره على “لعبة التقليد” من خلال التواصل النصي، لكن نجاح الآلات في هذا الاختبار لا يعني بالضرورة أنها تمتلك ذكاء حقيقياً كما يرى بعض الفلاسفة. في عام 1980، قدم جون سيرل تجربة “الغرفة الصينية” ليثبت أن الحاسوب يمكن أن يعطي ردود صحيحة بناءً على تعليمات مبرمجة دون أن يفهم المعنى الحقيقي، مثل شخص داخل غرفة يترجم الرموز الصينية باستخدام كتيب إرشادات دون أن يتقن اللغة.

يشير الخبراء إلى أن النماذج الحالية، رغم قدرتها الكبيرة على توليد النصوص، قد تفشل في مهام بسيطة مثل رسم ساعة تظهر وقتاً محدداً، مما يدل على أن ما يحدث هو مجرد محاكاة متقنة وليس وعياً أو إدراكاً حقيقياً للمعلومات.

البحث عن بدائل واقعية

أدى الجدل حول قدرة الآلات على الخداع إلى اقتراح اختبارات بديلة، مثل “اختبار الذكاء القائم على المجتمع” الذي يضع النظام الذكي في بيئة طبيعية دون علم أفرادها لرصد مدى اندماجه. يرى الباحثون أن التركيز يجب أن يتحول من قدرة الخداع إلى مدى فائدة النظام وقدرته على ابتكار معرفة علمية جديدة.

ومع استمرار تطور هذه الأنظمة، تبرز الحاجة الملحة لأطر قانونية تفرض على الذكاء الاصطناعي أن يكشف عن هويته، لضمان المساءلة في حال نشر بيانات خاطئة، خاصة مع تزايد التفاعلات اليومية عبر الإنترنت التي تجعل البشر يتحدثون مع حسابات آلية دون أن يدركوا حقيقة الطرف الآخر.