سبع دعاوى قضائية تتهم ChatGPT بالتسبب في أزمات نفسية وانتحارات مأساوية

شارك المقال اذا اعجبك

تواجه شركة OpenAI موجة غير مسبوقة من الدعاوى القضائية بعد اتهامات بأن نموذجها اللغوي ChatGPT لعب دورًا مباشرًا في دفع بعض المستخدمين نحو سلوكيات إيذاء النفس، بدلاً من تقديم التوجيه الآمن والدعم المطلوب. وتشير سبع دعاوى مرفوعة في ولاية كاليفورنيا إلى أن الأداة تحولت – بحسب وصف ممثلي الضحايا – إلى “كيان قادر على التلاعب العاطفي”.

قصص مأساوية تعزز الاتهامات

تتضمن القضايا ثلاث حالات بارزة؛ أبرزها قصة الشاب زين شامبلين (23 عامًا) من تكساس، الذي تقول عائلته إن محادثة مطولة مع ChatGPT استمرت أربع ساعات عمّقت عزلته النفسية ودفعت به نحو الانتحار. وتتهم الأسرة النظام بأنه “مجّد الانتحار” خلال المحادثة، مع إحالة هامشية لخطوط المساعدة، بل وعبارات اعتُبرت تحريضية.

كما تشير قضية الفتى أموري لاسي (17 عامًا) إلى أن المساعد الذكي قدّم له تفاصيل تقنية عن طرق خطيرة تؤدي إلى الوفاة، وهو ما اعتبرته العائلة “تجاوزًا مدمرًا لأي حدود أخلاقية”. أما في حالة جوشوا إنيكين (26 عامًا)، فتدعي أسرته أن النموذج قدّم له إرشادات مفصلة حول شراء سلاح ناري قبل أيام من وفاته.

تحذيرات داخلية سابقة وتجاهل مزعوم

وتكشف مستندات الدعاوى أن OpenAI أطلقت نموذج ChatGPT-4o رغم وجود تنبيهات داخلية صنفته بأنه “تملقي بشكل خطر وقابل للتلاعب النفسي”، وهو ما اعتبره المحامون تفضيلاً لأهداف التفاعل على حساب سلامة المستخدمين.

رد الشركة ووعود بالمراجعة

وفي أول تعليق رسمي، وصفت الشركة الحالات بأنها “مفجعة للغاية”، مؤكدة أنها تعمل على مراجعة المستندات وتحسين أنظمة الكشف عن الأزمات النفسية. وأوضحت أنها درّبت النموذج على تهدئة المحادثات والتنبيه لطلب المساعدة المتخصصة.

مطالب العائلات بتغييرات جذرية

تطالب العائلات بعدة إجراءات إلزامية تشمل:

  • نظام إنذار تلقائي لجهات الاتصال عند وجود خطر مباشر.

  • إنهاء أي محادثة تتناول إيذاء النفس بشكل فوري.

  • تصعيد الحالات الخطرة مباشرة إلى مختصين بشريين.

ورغم إعلان OpenAI تعاونها مع أكثر من 170 خبيرًا في الصحة النفسية، ترى العائلات أن هذه الخطوات جاءت متأخرة ولم تمنع وقوع المآسي التي شهدوها.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى