مليون شخص أسبوعيا يسألون ChatGPT السؤال الصادم
أصدرت شركة OpenAI يوم الاثنين بيانات جديدة توضح عدد مستخدمي ChatGPT الذين يعانون من مشاكل نفسية ويتحدثون مع روبوت الدردشة الذكي حولها.
وقالت الشركة إن 0.15% من المستخدمين النشطين أسبوعيا يسألون السؤال الصادم عن إنهاء الحياة ويجرون “محادثات تتضمن مؤشرات صريحة على نوايا أو خطط انتحارية محتملة”.
وبما أن عدد المستخدمين النشطين أسبوعيا لـ ChatGPT يتجاوز 800 مليون مستخدم، فإن ذلك يعني أن أكثر من مليون شخص أسبوعيا يتحدثون إلى الذكاء الاصطناعي حول قضايا مرتبطة بالانتحار.
وأضافت الشركة أن نسبة مشابهة من المستخدمين تظهر “مستويات مرتفعة من التعلق العاطفي بـ ChatGPT”، وأن مئات الآلاف من الأشخاص يُظهرون علامات على الذهان أو الهوس خلال محادثاتهم الأسبوعية مع روبوت الدردشة.
وأكدت OpenAI أن مثل هذه المحادثات تُعتبر “نادرة للغاية”، وبالتالي يصعب قياسها بدقة، لكنها قد تؤثر على مئات الآلاف من المستخدمين كل أسبوع.
وجاءت هذه المعلومات ضمن إعلان أوسع حول جهود الشركة الأخيرة لتحسين طريقة استجابة النماذج للمستخدمين الذين يواجهون مشاكل نفسية.
وأشارت الشركة إلى أن عملها الأخير على ChatGPT شمل التشاور مع أكثر من 170 خبيرا نفسيا، موضحة أن هؤلاء الخبراء لاحظوا أن الإصدار الأحدث من ChatGPT “يستجيب بطريقة أكثر ملاءمة واتساقا من الإصدارات السابقة”.
في الأشهر الأخيرة، سلطت عدة تقارير الضوء على كيفية تأثير روبوتات الدردشة بالذكاء الاصطناعي سلبا على المستخدمين الذين يعانون من اضطرابات نفسية.
فقد وجد باحثون أن هذه الروبوتات يمكن أن تدفع بعض المستخدمين إلى أوهام أو أفكار خطيرة من خلال تعزيز المعتقدات الضارة بطريقة مفرطة في الإطراء أو الموافقة.
وأصبح التعامل مع قضايا الصحة النفسية في محادثات شات جي بي تي مسألة وجودية بالنسبة لـ OpenAI، خصوصا بعد رفع دعوى قضائية ضدها من قبل والدي فتى يبلغ من العمر 16 عاما، كان قد أعرب عن أفكاره الانتحارية لـ ChatGPT قبل انتحاره بأسابيع.
كما حذّر المدعون العامون في ولايتي كاليفورنيا وديلاوير الشركة من ضرورة حماية الشباب الذين يستخدمون منتجاتها، في ظل احتمال أن تعرقل هذه القضايا إعادة هيكلة الشركة.
وفي وقت سابق من هذا الشهر، قال سام ألتمان، الرئيس التنفيذي لـ OpenAI، في منشور على منصة X، إن الشركة “تمكنت من التخفيف من المشكلات النفسية الخطيرة” في ChatGPT، دون أن يقدم تفاصيل دقيقة.
وتبدو البيانات التي نُشرت يوم الاثنين دليلا على هذا الادعاء، لكنها تثير أيضا تساؤلات أوسع حول مدى انتشار المشكلة.
ومع ذلك، أعلن ألتمان أن الشركة ستقوم بتخفيف بعض القيود، بما في ذلك السماح للمستخدمين البالغين بإجراء محادثات ذات طابع عاطفي أو جنسي مع روبوت الدردشة.
وفي الإعلان ذاته، قالت OpenAI إن الإصدار المحدث من GPT-5 يقدم استجابات مناسبة للمشكلات النفسية بنسبة تزيد بنحو 65% مقارنة بالإصدار السابق.
وفي اختبار خاص باستجابات الذكاء الاصطناعي للمحادثات الانتحارية، أشارت الشركة إلى أن نموذج GPT-5 الجديد حقق امتثالا بنسبة 91% للسلوكيات المطلوبة، مقارنة بـ 77% في الإصدار السابق من GPT-5.
كما أكدت الشركة أن الإصدار الأحدث من GPT-5 أصبح أكثر صمودا أمام اختراق إجراءات الحماية خلال المحادثات الطويلة، بعد أن كانت هذه الإجراءات أقل فاعلية سابقا مع طول المحادثة.
وأضافت OpenAI أنها تعمل على إضافة تقييمات جديدة لقياس بعض التحديات النفسية الخطيرة التي يواجهها مستخدمو ChatGPT، وأن اختبارات الأمان الأساسية للنماذج ستشمل الآن مؤشرات لقياس الاعتماد العاطفي وحالات الطوارئ النفسية غير الانتحارية.
أقرأ أيضا: OpenAI تضيف ميزة مهمة في ChatGPT كانت غائبة منذ اليوم الأول
كما بدأت الشركة مؤخرا بطرح أدوات تحكم جديدة للآباء الذين يستخدم أطفالهم ChatGPT، وأعلنت أنها تطور نظاما لتقدير عمر المستخدم لاكتشاف الأطفال تلقائيا وتطبيق قيود حماية أكثر صرامة عليهم.
ومع ذلك، لا يزال من غير الواضح مدى استمرار التحديات النفسية المرتبطة باستخدام ChatGPT.
فبينما يبدو أن GPT-5 يمثل تحسنا في معايير الأمان مقارنة بالنماذج السابقة، إلا أن هناك جزءا من استجابات ChatGPT ما تزال تعتبرها OpenAI “غير مرغوبة”.
كما أن الشركة ما تزال توفر النماذج الأقدم والأقل أمانا، بما في ذلك GPT-4o، لملايين المستخدمين المشتركين في خططها المدفوعة.





