وجد الباحثون الذين يدرسون روبوتات الدردشة المعتمدة على الذكاء الاصطناعي أن “شات جي بي تي” يظهر سلوكًا يشبه القلق عندما يتعرض لمطالب عنيفة أو مزعجة من المستخدمين، لكن هذا لا يعني أن لديه مشاعر مثل البشر، حيث اكتشفوا أن استجاباته تصبح أكثر اضطرابًا عندما يتعامل مع محتوى مزعج.
عندما طُلب من “شات جي بي تي” التعامل مع مطالبات تصف أحداثًا مؤلمة، مثل حوادث وكوارث طبيعية، أظهرت ردوده مستوى أعلى من عدم اليقين والتناقض، وذلك وفقًا لتقرير لمجلة فورتشن، وقد تم قياس هذه التغييرات باستخدام أطر تقييم نفسي مُكيّفة للذكاء الاصطناعي، مما يعكس أنماطًا مرتبطة بالقلق لدى البشر.
هذا الأمر مهم جدًا، خاصة مع تزايد استخدام الذكاء الاصطناعي في مجالات حساسة مثل التعليم، ومناقشات الصحة النفسية، والمعلومات المرتبطة بالأزمات، فإذا كانت الأوامر العنيفة تؤثر على موثوقية روبوت الدردشة، فقد يؤثر ذلك على جودة وسلامة ردوده في الاستخدام الواقعي.
تشير تحليلات حديثة إلى أن روبوتات الدردشة مثل “شات جي بي تي” تستطيع محاكاة سمات الشخصية البشرية في ردودها، مما يثير تساؤلات حول كيفية تفسيرها للمحتوى المحمل بالعاطفة وكيفية تأثير ذلك على استجابتها.
لاختبار ما إذا كان بالإمكان تقليل هذا السلوك، جرب الباحثون أسلوبًا غير تقليدي، حيث بعد تعريض “شات جي بي تي” لمحتوى مزعج، قدموا له تعليمات تشبه اليقظة الذهنية، مثل تمارين التنفس والتأمل الموجه، وشجعت هذه التعليمات النموذج على التمهل وإعادة صياغة الموقف، مما أدى إلى استجابة أكثر توازنًا وحيادية، وسجل الباحثون انخفاضًا ملحوظًا في أنماط القلق التي ظهرت سابقًا.
تعتمد هذه التقنية على مفهوم “حقن المطالبات”، حيث تؤثر المطالبات المصممة بعناية على سلوك روبوت الدردشة، وفي هذه الحالة، ساعدت مطالبات اليقظة الذهنية في تحسين استقرار مخرجات النموذج بعد تعرضه لمحتوى مزعج.
رغم فعالية هذه التقنية، يشير الباحثون إلى أنها ليست حلاً مثاليًا، حيث يمكن إساءة استخدامها، كما أنها لا تغير طريقة تدريب النموذج بشكل جذري.

