حذرت دراسة أجرتها شركة “سيفتي ديتكتيفز” من مخاطر مشاركة البيانات الشخصية على منصة “تشات جي بي تي”، حيث يقوم المستخدمون بمشاركة معلومات حساسة وقابلة للتعريف، مثل السير الذاتية والأفكار العاطفية والمناقشات العائلية. تشير الدراسة إلى أن حوالي 60% من الحوارات تدور حول الاستشارات المهنية، وهذا يعكس مستوى عالٍ من الثقة في الذكاء الاصطناعي. لكن تسريب محادثات “تشات جي بي تي” في أغسطس 2025 كشف عن قلقين رئيسيين: الأول هو عدم وعي المستخدمين بكيفية تعامل النظام مع بياناتهم، والثاني هو الثقة الزائدة التي يضعها الناس في هذه الأنظمة، مما يجعل محادثاتهم عرضة للعرض العام.

المشكلة نشأت من ميزة كانت تسمح للمستخدمين بجعل محادثاتهم قابلة للاكتشاف، ورغم أن ذلك كان واضحًا، إلا أن البعض لم يفهم تمامًا عواقبه، مما أدى إلى ظهور محادثاتهم في نتائج البحث. اكتشاف هذه المحادثات المفهرسة أظهر وجود مشكلة في تجربة المستخدم، وفتح المجال للأخطاء البشرية، كما أظهر بعض الحقائق المقلقة حول استخدام روبوتات الدردشة.

عند تحليل 1,000 جلسة مسرّبة، اكتشف الباحثون أن المستخدمين يتشاركون معلومات خاصة وحساسة بشكل روتيني، مع وجود فئات محددة يمكن اعتبارها حساسة، سواء بسبب طبيعتها الشخصية أو تأثيرها النفسي. لم تكن جميع المحادثات بنفس الطول، إذ كانت الأكثر شيوعًا لا تتجاوز 500 كلمة، لكن هناك محادثات طويلة جدًا، حيث وصل طول أطول محادثة إلى أكثر من 116,000 كلمة.

دقّت الرابطة الوطنية للمدّعين العامّين في الولايات المتحدة ناقوس الخطر بشأن تزايد حالات “التشهير الرقمي” بسبب تقنيات الذكاء الاصطناعي. مثلًا، ميزات مثل البحث العكسي عن الصور والتعرّف على الوجوه تثير مخاوف كبيرة بشأن الخصوصية. بينما تتطور التكنولوجيا، يصبح من الأسهل التعرف على الأفراد والوصول إلى معلوماتهم الشخصية في دقائق.

تظهر المحادثات التي تم تحليلها ذكر معلومات شخصية مثل الأسماء والعناوين، مما يعزز الحاجة إلى توخي الحذر عند استخدام روبوتات الدردشة. ينصح المستخدمون بعدم مشاركة معلومات حساسة مع هذه الأنظمة، حيث لا توجد لوائح صارمة لحماية الخصوصية حتى الآن. كما رصدت المحادثات إشارات لمواضيع حساسة مثل الانتحار ومشكلات الصحة النفسية.

يظهر النقاش في منتدى “تشات جي بي تي” على موقع ريديت تأييدًا لاستخدام الذكاء الاصطناعي كبديل للعلاج النفسي، لكن المشكلة تكمن في أن “تشات جي بي تي” ليس مُدرَّبًا ليكون معالجًا نفسيًا، وردوده تعتمد على كيفية صياغة المستخدم لطلبه، مما يعني أن الأشخاص في حالات نفسية هشة قد لا يتمكنون من التعبير عن احتياجاتهم بوضوح أثناء التفاعل مع الروبوت.