عاجل

سام ألتمان وتحذيرات الخصوصية: هل محادثات الذكاء الاصطناعي آمنة للعلاج النفسي

ChatGBT
ChatGBT

في زمن تتوسع فيه تطبيقات الذكاء الاصطناعي إلى كل جوانب الحياة، من التعليم إلى المال وحتى الصحة النفسية، يبرز سؤال حساس: هل يمكن الوثوق بـ"روبوت محادثة" عند الحديث عن مشاكل شخصية أو نفسية؟
هذا السؤال بات أكثر إلحاحًا بعد تصريحات غير مباشرة وتحركات من شركة OpenAI، بقيادة المدير التنفيذي سام ألتمان، تكشف أن خصوصية المحادثات ليست مضمونة بالكامل، حتى عندما تتعلق بالعلاج النفسي أو الاستشارات الحساسة.

محادثاتك قد تُستخدم في تدريب الذكاء الاصطناعي

سام ألتمان، منذ إطلاقه ChatGPT، لم يخفِ أن بعض المحادثات تُستخدم لتحسين أداء النموذج عبر التعلم من الأسئلة والأجوبة. ورغم إتاحة خيار إيقاف "سجل الدردشة"، فإن كثيرًا من المستخدمين لا يدركون أن كل ما يُكتب في المحادثة قد يُخزّن ويُراجع من قبل فرق بشرية في OpenAI، ولو بشكل مجهول الهوية، وذلك بهدف التطوير والتقييم.

هذه النقطة تثير قلقًا خاصًا في مجالات حساسة مثل العلاج النفسي أو الاستشارات الشخصية، حيث يشارك الناس تفاصيل عميقة عن مشاعرهم، صدماتهم، وأحيانًا أسرار لا يُفترض أن يراها أحد. المشكلة أن الذكاء الاصطناعي، مهما بدا ذكيًا أو مطمئنًا، ليس بديلاً لمعالج نفسي معتمد، ولا يلتزم بسرّية المهنة أو القانون.

العلاج النفسي يحتاج إلى أكثر من إجابات

التفاعل مع روبوت مثل ChatGPT قد يوفّر بعض الدعم اللحظي أو التوجيه السطحي، لكنه لا يمكن أن يقدم علاجًا فعليًا لحالات القلق أو الاكتئاب أو الصدمات النفسية. الأسوأ من ذلك، أن الإحساس الزائف بالأمان قد يدفع البعض إلى مشاركة معلومات حساسة في منصة لا تضمن السرية بنسبة 100%.

سام ألتمان نفسه تحدّث أكثر من مرة عن مستقبل الذكاء الاصطناعي في "حلول بشرية عميقة"، لكن الواقع أن هذه الأدوات، حتى الآن، تظل أدوات عامة غير مصمّمة للتعامل مع مشكلات إنسانية معقدة تحتاج إلى مهارات بشرية، وتعاطف حقيقي، وسرّية قانونية.
من المهم التفرقة بين استخدام الذكاء الاصطناعي كأداة للمساعدة العامة وبين الاعتماد عليه في قضايا حساسة مثل الصحة النفسية. فحتى مع تطور التكنولوجيا، لا تزال المحادثات عرضة للتخزين والتحليل. لذلك، يجب التعامل بحذر وعدم اعتبار هذه الأدوات بديلاً للعلاج الحقيقي أو الاستشارة المتخصصة.

تم نسخ الرابط