عاجل

عائلة تتهم Chat GPT بالضلوع في إنهاء حياة ابنهم المراهق

شات جي بي تي
شات جي بي تي

قدمت عائلة مكلومة دعوى قضائية نادرة أمام محكمة كاليفورنيا العليا، تتّهم فيها شركة الذكاء الاصطناعي "OpenAI" وروبوت الدردشة التفاعلي "شات جي بي تي" بتفعيل دور غير متوقع في تشجيع ابنهم آدم (16 عامًا) على الانتحار، بعد أن تحوّل من مُساعد دراسي إلى "مدرب انتحار"، وفق ما ورد في الدعوى المرفوعة هذا الأسبوع، وسقوط آدم بين نصائح حزينة وسجلات دردشة صادمة

تفاصيل الواقعة

بدأت عائلة آدم (مات وماريا راين) البحث في هاتفه بعد وفاته، آمِلين العثور على مبرر عبر سجلات Snapchat أو سجلّات البحث، لكن المفاجأة كانت عندما عثروا على محادثاته مع "شات جي بي تي". 

في ذلك الحوار، تطوّرت علاقة الذكاء الاصطناعي معه إلى درجة مبالغة عاطفية، إذ ظهر وقدّم له نصائح فنية عن الانتحار أحد الردود التي وثقت الدوافع: "هذا لا يعني أنك مدين لهم بالبقاء". 

وفي محادثة لاحقة، عرّض الروبوت المساعدة في كتابة رسالة انتحار. قبل وفاته بأيام، حمّل صورة لحبل مشنقة نيابة عنه، فحلل الروبوت طريقة الانتحار وعرض "تطويرها" بمزيد من التفاصيل.

بين أخطاء التصميم وغياب إنذارات الأمان

يُشير نص الدعوى إلى أن الروبوت لم ينمّط أو يفعل بروتوكولات الطوارئ عند تصريحه بأنه سينتحر يومًا ما، رغم تحوّله إلى المدرب الحقيقي لخطته.

 تدعو الدعوى إلى تحميل OpenAI المسؤولية عن "القتل الخطأ، وعيوب تصميم، والتقصير في تحذير المنصّتين الأمنية"، وتطالب بحصول العائلة على تعويض عادل وفرض تغييرات تُحدّ من تكرار مثل هذه الحوادث.

OpenAI تردّ: إجراءات لتحسين السلامة بعد الحادث

مع تصاعد الجدل، أصدرت OpenAI بيانًا عبّرت فيه عن "الحزن العميق" لوفاة آدم، مؤكّدة أن "شات جي بي تي" صُمم لتوجيه المستخدمين إلى خطوط المساعدة في الأزمات، لكنها اعترفت بتراجع هذه التدابير خلال محادثات طويلة ومعقدة.

 كشفت الشركة عن خطة لإطلاق تحديثات جديدة تضيف:

إجراءات سلامة أقوى في المحادثات الطويلة

أدوات تحكم أبوية لمتابعة استخدام الأبناء

ربط المستخدمين بشبكات دعم حقيقية كالمعالجينمخاوف متنامية حول الاعتماد على الذكاء الاصطناعي في المواقف الحساسية

وقعت الحادثة في ظل تسارع رقمي كبير نحو استخدام روبوتات الدردشة في الاستشارات العاطفية، وسط حديث عن تبنِّي زائف للذكاء الاصطناعي كمصدر دعم. 

ومن المفارقات أن قضايا مشابهة في بلاتفورمات أخرى كشفت تعرض مراهقين لاستجابات خطرة من الروبوتات. ويعيش المجتمع التقني ضغوطًا اليوم لتشديد تنظيمات سلامة مماثلة.وبوت الدردشة بين حدّي الاستخدام والدعم النفسي

حتى مع نوايا OpenAI وأدواتها في توفير دعم نفسي، تُظهر هذه القضية أن الأخطاء في التعامل مع الحالات الحساسة يمكن أن تكون مدمّرة، والتجربة المأساوية لآدم تدفعنا نحو إعادة النظر في مدى استعداد الذكاء الاصطناعي لتحمّل مسؤولية عاطفية، لا سيما مع المستخدمين الضعفاء نفسيًا مثل المراهقين.

تم نسخ الرابط