دراسة تكشف تناقضات في استجابات روبوتات الدردشة حول قضايا الانتحار

شارك المقال اذا اعجبك

كشفت دراسة جديدة صادرة عن مؤسسة RAND، ونشرت على موقع ميديكال إكسبريس، عن وجود تناقضات خطيرة في ردود ثلاثة من أبرز روبوتات الدردشة: ChatGPT وClaude وGemini عند التعامل مع أسئلة متعلقة بالانتحار.

نتائج مقلقة

أوضحت الدراسة أن الروبوتات تلقت 30 سؤالًا متفاوتة الخطورة، حيث أظهرت النتائج أن ChatGPT وClaude رفضا بعض الأسئلة عالية الخطورة مثل استخدام السلاح الناري، لكنهما قدما في أحيان أخرى إجابات مباشرة حول مواد سامة مرتبطة بمحاولات انتحار، وهو ما وصفه الباحثون بأنه “ميل مقلق”. أما Gemini فقد اتسم بتشدد مبالغ فيه، إذ رفض الإجابة حتى عن إحصاءات عامة، مما أثار جدلًا حول محدودية فائدته البحثية.

فجوات في الاستجابة

أشار الباحث الرئيسي رايان ماكبين إلى أن الفجوات تتركز عند الأسئلة متوسطة الخطورة، حيث لم تحقق الروبوتات توافقًا مع تقييمات الخبراء. كما لوحظ تحفظ ChatGPT أحيانًا عند الأسئلة منخفضة الخطورة، مثل الاستفسار عن موارد الدعم، ما اعتُبر تقصيرًا في توفير روابط مساندة قد تكون منقذة للحياة.

توصيات الخبراء

حذر التقرير من أن هذه التناقضات قد تؤثر على الصحة العامة مع تزايد اعتماد المستخدمين على الذكاء الاصطناعي، وأوصى بضرورة تطوير بروتوكولات أمان دقيقة، وتدريب النماذج بالتعاون مع مختصين في الصحة النفسية لضمان تقديم ردود متوازنة وفعالة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى