عاجل

تهدد الخصوصية.. خبير أمن معلومات يحذر من أدوات الذكاء الاصطناعي

الذكاء الاصطناعي
الذكاء الاصطناعي

حذر المهندس تامر محمد، خبير تكنولوجيا وأمن المعلومات، من خطورة الاعتماد المفرط على أدوات الذكاء الاصطناعي المتاحة عبر الإنترنت، وعلى رأسها "شات جي بي تي"، وذلك على خلفية الجدل الأخير بشأن احتمالية تسريب بيانات المستخدمين بسبب ميزة تجريبية تم تفعيلها دون علمهم.

 

وفي مداخلة هاتفية عبر فضائية "إكسترا نيوز"، أوضح تامر أن ما جرى مؤخرًا يُرجح أنه خلل تقني أو "ثغرة"، لم تُعترف بها رسميًا من الشركة المالكة لـ "تشات جي بي تي"، بل تم تقديمها باعتبارها "ميزة تجريبية".

تسريب محتوى المحادثات دون علمهم

وأضاف أن هذه الميزة على الأرجح لم تكن مفعّلة بشكل واضح أو معلن للمستخدمين، ما قد يؤدي إلى تسريب محتوى المحادثات دون علمهم.

وأكد أن خطورة الذكاء الاصطناعي لا تقتصر فقط على تبادل الروابط أو البيانات الحساسة، بل تمتد إلى كيفية استخدامه، خاصة عند التعامل مع معلومات شخصية أو مهنية، مشيرًا إلى أن بعض المؤسسات، مثل البنوك، تمنع استخدام هذه الأدوات داخليًا حفاظًا على سرية البيانات ومنع أي تسريب محتمل.

وتابع قائلًا: "الفكرة مش إننا نمنع استخدام الذكاء الاصطناعي، لكن نستخدمه بعقل. استخدمه كأداة للإرشاد أو للمساعدة في الحلول، مش لمشاركة التفاصيل الحساسة، سواء كانت شخصية أو تتعلق بالعمل. لأنك ببساطة بتعرض أسرارك للخطر من غير حماية".

 

وفي ما يخص ثقة المستخدمين، أوضح أن تسريبات البيانات ليست أمرًا جديدًا في عالم التكنولوجيا، بل هي حوادث متكررة على مدار العقود، مؤكدًا أن "السباق بين المخترقين والمطورين مستمر"، ما يجعل وعي المستخدم العامل الأهم في التعامل مع هذه الأدوات.

 

واختتم تامر نصائحه للمستخدمين بالتأكيد على ضرورة التعامل مع الذكاء الاصطناعي كأداة مساعدة فقط، دون الاعتماد الكلي عليه في التفكير أو التخطيط، محذرًا من أن هذا النوع من الاعتماد قد يضعف القدرات الذهنية على المدى الطويل.
 

تم نسخ الرابط