عاجل

تحذير عالمي من Meta AI:محادثاتك الخاصة قد تصبح عامة عبر ميزة Discover

تحذير عالمي من Meta
تحذير عالمي من Meta AI

كشفت تقارير أجنبية حديثة عن ثغرة خطيرة في تطبيق الذكاء الاصطناعي الخاص بشركة "ميتا" Meta AI، تهدد خصوصية ملايين المستخدمين، حيث ظهر أن التطبيق قد يقوم بنشر المحادثات الخاصة للمستخدمين على العلن عبر خاصية Discover، دون وعي أو إدراك كاف من المستخدمين أنفسهم لما يحدث.

كيف تفضح Meta AI خصوصية محادثاتك؟

وفقًا لما نشره موقع Wired 
فإن تطبيق Meta AI يحتوي على خاصية تحمل اسم Discover داخل التطبيق، وهي الخاصية التي تتيح للمستخدمين استعراض محادثات الآخرين التي أجروها مع روبوت الذكاء الاصطناعي التابع لميتا.

المثير للجدل أن هذه المحادثات في معظمها تتضمن معلومات حساسة وشخصية للغاية، بينها أمور طبية، قانونية، مشكلات أسرية، عناوين، وأرقام هواتف وحتى استشارات قانونية دقيقة، ليجد المستخدم فجأة أن محادثته التي كان يظن أنها خاصة قد تحولت إلى محتوى عام ومتاح للجميع بنقرة واحدة فقط.

أمثلة صادمة لمحادثات ظهرت على العلن في Meta AI


ووفقًا لنفس التقرير من موقع Wired، فقد تم رصد عدة أمثلة مرعبة لمستخدمين وجدوا بياناتهم الحساسة، منها:

  • محادثات حول نتائج تحاليل طبية وأمراض مزمنة.
  • استفسارات قانونية تتعلق بالدعاوى القضائية.
  • مناقشات تتعلق بالعلاقات الأسرية والمشكلات الزوجية.
  • نشر بيانات اتصال حقيقية كالعناوين وأرقام الهواتف.
  • حتى محادثات تتعلق بالهوية الدينية والروحية والقرارات الشخصية الدقيقة.


نشر موقع The Washington، أن المشكلة أعمق من مجرد خطأ تقني عابر، حيث وثّق أمثلة لمستخدمين صُدموا عندما اكتشفوا أن حواراتهم الخاصة ظهرت فجأة أمام الآخرين في قسم الاستكشاف، دون تلقيهم أي إشعار أو تحذير صريح بأن ما يكتبونه سيتم عرضه علنًا.

كيف يحدث ذلك؟ واجهة تصميم مربكة تدفع للمشاركة دون قصد


تكمن الكارثة التقنية في آلية تصميم واجهة المستخدم داخل تطبيق Meta AI، فرغم أن الشركة تقول إن المحادثات خاصة بشكل افتراضي ولا يتم نشرها إلا بموافقة المستخدم، إلا أن طريقة تصميم واجهة Discover تشجع بشكل غير مباشر على المشاركة، مما يدفع البعض عن غير قصد للموافقة على نشر محادثاتهم وهم يظنون أن الأمر مجرد تجربة عادية للدردشة مع الذكاء الاصطناعي.

وكما أوضح تقرير Wired، فإن ضغط المستخدم على بعض الأزرار أثناء المحادثة يظهر له خيار المشاركة على Discover بطريقة توحي بأنها جزء من تجربة التطبيق وليست عملية نشر حقيقية على العلن، ما يجعل ملايين المستخدمين عرضة للكشف عن بياناتهم دون قصد.

ردود أفعال واسعة وتحذيرات قوية من منظمات الخصوصية


الأزمة دفعت العديد من منظمات حماية الخصوصية للتدخل وتحذير المستخدمين من خطورة الوضع، حيث أكد مركز معلومات الخصوصية الإلكترونية EPIC أن تصميم واجهة Meta AI لا يوضح بشكل كاف الفرق بين المحادثات الخاصة والمحتوى الذي يتم مشاركته مع العامة.

وحذر المركز من أن ملايين المستخدمين قد يقعون في هذا الفخ لأنهم يعتقدون أنهم يجرون دردشة شخصية بينما هم فعليًا ينشرون معلوماتهم الحساسة على منصة عامة يستعرضها آخرون بسهولة تامة.

Meta ترد: المشاركة تتم بموافقة المستخدم.. ولكن

في محاولة لاحتواء الأزمة، خرجت شركة ميتا بتصريح رسمي أكدت فيه أن كافة المحادثات داخل تطبيق Meta AI تظل سرية وخاصة بشكل افتراضي، وأن خيار المشاركة في Discover يتطلب موافقة واضحة من المستخدمين عبر خطوات محددة.

لكن رغم ذلك، يرى خبراء التقنية أن آلية الموافقة هذه ليست كافية، حيث تعتمد على تصميم واجهة غامضة وغير شفافة تجعل الكثيرين يوافقون على النشر دون إدراك حقيقي لما يفعلونه. وهو ما اعتبرته منظمات حقوقية بأنه "فشل أخلاقي في تصميم واجهة الاستخدام".

خبراء التقنية: هذا تحذير مبكر لكوارث قادمة مع الذكاء الاصطناعي

علق خبراء من مؤسسة Mozilla Foundation بأن هذه الحادثة قد تكون مجرد البداية لسلسلة من انتهاكات الخصوصية القادمة مع توسع استخدام تطبيقات الذكاء الاصطناعي في الحياة اليومية.

وأكدوا أن المشكلة تكمن في أن هذه التطبيقات تجمع كميات هائلة من البيانات الحساسة عن حياة الأفراد، وفي حال لم تضع الشركات معايير صارمة وواضحة للخصوصية، سيجد المستخدمون أنفسهم مكشوفين أمام ملايين البشر حول العالم دون علمهم.

نصائح عاجلة لمستخدمي Meta AI: كيف تحمي نفسك؟

ينصح الخبراء مستخدمي تطبيقات الذكاء الاصطناعي عامة وتطبيق Meta AI خاصة، باتباع مجموعة من الخطوات لحماية خصوصيتهم:

  • عدم إدخال أي معلومات شخصية أو حساسة أثناء المحادثات مع الذكاء الاصطناعي.
  • التأكد من إعدادات الخصوصية وتعطيل أي خاصية نشر تلقائي.
  • قراءة الإشعارات بعناية قبل الضغط على أي زر مشاركة أو نشر.
  • تحديث التطبيق باستمرار لمتابعة أي تعديلات تصدرها الشركة لمعالجة هذه المشكلات.

في حال اكتشاف نشر أي بيانات بالخطأ، التوجه فورًا للإبلاغ وطلب حذف المحتوى.

تم نسخ الرابط