عاجل

تقرير: نصيحة من ChatGPT تسببت في إصابة رجل باضطراب نفسي نادر

ChatGPT
ChatGPT

في وقت سابق من هذا العام، انتشرت قصة ملهمة عن أم لجأت إلى ChatGPT واكتشفت أن ابنها يعاني من اضطراب عصبي نادر، بعد أن عجز أكثر من عشرة أطباء عن تحديد المشكلة الحقيقية. 

وبفضل هذا المساعد الذكي، تمكنت الأسرة من الحصول على العلاج المناسب وإنقاذ حياة الطفل، لكن ليس كل استشارة طبية عبر ChatGPT تنتهي بنتائج معجزة.

فقد كشف تقرير طبي حديث أن نصيحة خاطئة من ChatGPT أدت إلى إصابة أحد الأشخاص بحالة نادرة تُعرف باسم "تسمم البروميد" أو "البروميزم"، وهي حالة تؤدي إلى اضطرابات نفسية وعصبية مثل الذهان والهلوسة.

 

حادثة غريبة تعود إلى قرن مضى

نُشرت تفاصيل الحالة في مجلة "حوليات الطب الباطني"، وتروي قصة رجل يبلغ من العمر 60 عامًا دخل المستشفى بعد إصابته بتسمم البروميد، إثر استشارته لـ ChatGPT بشأن حالته الصحية، والمثير في الأمر أن الرجل كان يعتقد أن جاره يتعمد تسميمه بشكل سري.

بدأت القصة عندما قرأ الرجل تقارير تحذر من أضرار كلوريد الصوديوم (الملح العادي)، فاستبدله بناءً على نصيحة ChatGPT بمادة بروميد الصوديوم، مما أدى إلى تراكم البروميد في جسمه وتسممه.

ووفقًا للتقرير، "كان المريض يعاني من عطش شديد لكنه كان يشك في الماء الذي يُعرض عليه"، وقد لجأ إلى تقطير الماء بنفسه وفرض قيودًا صارمة على ما يتناول،. ومع تدهور حالته تم إدخاله إلى المستشفى لإجراء تقييمات طبية.

وفي أول 24 ساعة من دخوله، ظهرت عليه أعراض متزايدة من جنون الارتياب، بالإضافة إلى هلوسات سمعية وبصرية، وحاول الهروب من المستشفى، مما استدعى احتجازه قسريًا في قسم الطب النفسي بسبب حالته الحرجة.

التحذير من الاستغناء عن الطبيب البشري

تُعد هذه الحالة من الحالات النادرة للغاية، حيث أشار التقرير إلى أن "البروميزم، أو التسمم المزمن بالبروميد، أصبح نادرًا جدًا وكاد يُنسى". 

ويعود استخدام أملاح البرومين إلى القرن التاسع عشر، حيث كانت تُستخدم لعلاج الأمراض النفسية والعصبية، خاصة الصرع، لكنها لاحقًا ارتبطت بأعراض خطيرة مثل الهذيان، ضعف التنسيق العضلي، والإرهاق، وقد تصل في الحالات الشديدة إلى الذهان أو الغيبوبة. 

وفي عام 1975، فرضت الحكومة الأمريكية قيودًا على استخدام البروميد في الأدوية المتاحة دون وصفة طبية.

ورغم أن الفريق الطبي لم يتمكن من الوصول إلى محادثات المريض مع ChatGPT، إلا أنهم أجروا اختبارات مماثلة وحصلوا على إجابات مقلقة مشابهة. 

وأوضحوا أن ChatGPT 3.5 اقترح البروميد كبديل للكلوريد دون تقديم تحذير صحي واضح أو الاستفسار عن سبب السؤال، كما يفترض أن يفعل الطبيب المختص.

الذكاء الاصطناعي ليس بديلاً للتشخيص الطبي

هناك حالات ساعد فيها ChatGPT في تشخيص مشاكل صحية، لكن النتائج الإيجابية تعتمد على توفر سياق دقيق ومعلومات شاملة، ومع ذلك يحذر الخبراء من الاعتماد الكامل على الذكاء الاصطناعي في الأمور الطبية.

ففي دراسة نُشرت في مجلة "Genes"، أشار الباحثون إلى أن قدرة ChatGPT (الإصدارين GPT-4 و GPT-4.5) على تشخيص الأمراض النادرة كانت ضعيفة، مؤكدين أن استشارة الذكاء الاصطناعي لا يمكن أن تحل محل التقييم الطبي المهني.

وتواصل موقع LiveScience مع شركة OpenAI حول هذه القضية، فجاء الرد: "لا ينبغي الاعتماد على مخرجات خدماتنا كمصدر وحيد للحقيقة أو المعلومات الدقيقة، أو كبديل للنصيحة المهنية"، كما أكدت الشركة أن فرق السلامة لديها تعمل على تقليل المخاطر وتدريب النماذج على توجيه المستخدمين لطلب المشورة من المختصين.

الطموح نحو ذكاء اصطناعي أكثر أمانًا

مع إطلاق GPT-5، وعدت OpenAI بتقليل حالات الخطأ أو "الهلوسة" في الإجابات، والتركيز على تقديم ردود آمنة توجه المستخدم بعيدًا عن المعلومات الضارة.

 وكما تقول الشركة: "نُدرّب النموذج على تقديم الإجابة الأكثر فائدة قدر الإمكان، مع الحفاظ على حدود السلامة".

لكن العقبة الأكبر تبقى في أن المساعد الذكي لا يستطيع تقييم الأعراض السريرية للمريض بشكل موثوق.

لذا، لا يمكن الاعتماد على الذكاء الاصطناعي في المجال الطبي إلا إذا تم استخدامه ضمن بيئة صحية خاضعة لإشراف مهني معتمد.

تم نسخ الرابط