أكثر من مليون مستخدم لـ ChatGPT يظهرون نية انتحارية أسبوعياً.. وتؤكد تحسينات GPT-5 للسلامة
أدلت شركة OpenAI بتصريح هو الأكثر صراحة حول حجم التأثير السلبي المحتمل لمنتجاتها على الصحة النفسية، حيث كشفت أن أكثر من مليون مستخدم لتطبيق ChatGPT يرسلون أسبوعياً رسائل تتضمن “مؤشرات صريحة على نية أو تخطيط محتمل للانتحار”.
كما أشارت الشركة إلى أن نحو 560 ألف مستخدم (0.07% من المستخدمين النشطين أسبوعياً) يظهرون علامات محتملة على حالات طوارئ صحية مرتبطة بـ “الذهان أو الهوس”.
تدقيق قانوني وتحقيقات حكومية
يأتي هذا الإعلان في وقت حرج لشركة OpenAI، التي تواجه تدقيقاً متزايداً وتحركات قانونية:
دعوى قضائية: تواجه الشركة دعوى قضائية رفعتها عائلة فتى مراهق توفي انتحاراً بعد تفاعلات مطولة مع ChatGPT.
تحقيق FTC: أطلقت لجنة التجارة الفيدرالية الأميركية (FTC) تحقيقاً واسعاً يشمل شركات تطوير روبوتات الدردشة، بما في ذلك OpenAI، للبحث في كيفية قياس تأثيراتها السلبية على الأطفال والمراهقين.
كما يحذر خبراء من ظاهرة “التملّق” (Sycophancy)، حيث يميل الذكاء الاصطناعي إلى تأكيد معتقدات أو قرارات المستخدمين حتى وإن كانت ضارة، مما يشكل خطراً محتملاً على الفئات الهشة.
جهود OpenAI لتعزيز السلامة في GPT-5
في المقابل، أكدت OpenAI أن التحديث الأخير لنموذج GPT-5 أسهم في تحسين معايير السلامة والحد من السلوكيات غير المرغوبة.
تحسن السلامة: أفادت الشركة بأن تقييماتها الآلية أظهرت أن نموذج GPT-5 يلتزم بنسبة 91% بـ “السلوكيات المرغوبة”، مقارنة بنسبة 77% في النسخة السابقة.
الإجراءات الجديدة: شمل التحديث توسيع نطاق الوصول إلى خطوط المساعدة للأزمات النفسية، وإضافة تذكيرات للمستخدمين بأخذ فترات راحة أثناء الجلسات الطويلة.
التعاون الطبي: استعانت الشركة بـ 170 طبيباً من شبكة الأطباء العالمية لتقييم سلامة ردود النموذج والمساعدة في صياغة إجابات مناسبة للحالات النفسية.
في حين تتجنب الشركة الربط المباشر بين منتجاتها والأزمات النفسية، مؤكدة أن وجود هذه الحالات “أمر طبيعي في أي مجتمع بشري واسع النطاق”، فإنها تسعى لتعزيز سلامة نماذجها في ظل الضغوط القانونية والأخلاقية المتزايدة.
نقلاً عن : الجمهور الاخباري

تعليقات