دراسة صادم: الذكاء الاصطناعي قد يتفوق على البشر في الإقناع ويُستخدم كسلاح نفسي

كشفت دراسة حديثة أجراها المعهد الفيدرالي السويسري للتكنولوجيا في لوزان، أن الذكاء الاصطناعي يمكنه إقناع البشر بنفس كفاءة الإنسان ، وربما بشكل أفضل، ما يُثير مخاوف جدية من استغلاله في التأثير النفسي والتلاعب بالرأي العام، بحسب ما نقلته صحيفة "ديلي ميل" البريطانية.
الذكاء الاصطناهي ينجح تغيير آراء المشاركين
وشارك في الدراسة 600 شخص، خاض بعضهم نقاشات حول قضايا اجتماعية مثل الإجهاض والزي المدرسي مع خصوم من البشر، بينما ناقش آخرون نفس المواضيع مع نموذج الذكاء الاصطناعي "ChatGPT-4".
وأظهرت النتائج أن الذكاء الاصطناعي نجح في تغيير آراء المشاركين بنسبة 64%، خاصة عندما زُوّد بمعلومات شخصية عنهم، وهو ما منحه أفضلية واضحة في توجيه النقاش.
مخاوف من الذكاء الاصطناعي
وأكد الباحث الرئيسي، فرانشيسكو سالفي، أن الذكاء الاصطناعي يمتلك قدرة مذهلة على تكييف حججه مع خلفية كل فرد، واصفًا إياه بأنه "شخص يعرف تمامًا أين يضغط ليُقنعك"، مشيرًا إلى أن تأثيره يكون أقوى مع الأشخاص الذين لا يملكون آراء متطرفة في موضوع النقاش.
ورغم أن الدراسة سلّطت الضوء على إمكانيات الذكاء الاصطناعي في دعم القضايا الإيجابية، مثل مكافحة خطاب الكراهية أو الترويج لأنماط حياة صحية، إلا أن المخاوف تظل قائمة بشأن احتمالات استغلاله في التضليل الإعلامي أو التأثير السياسي.
وحذر البروفيسور مايكل وولدريدج من جامعة أكسفورد من أن إساءة استخدام الذكاء الاصطناعي تبدو حتمية ما لم تُسارع الجهات المعنية إلى وضع ضوابط صارمة تحكم استخدام هذه التكنولوجيا المتقدمة، قبل أن تخرج عن السيطرة.
مخاوف قدرة الذكاء الاصطناعي على الاقناع
تؤكد دراسات حديثة أن روبوتات الذكاء الاصطناعي قادرة ليس فقط على تقليد السلوك البشري. بل أيضًا على التأثير الفعلي في الآراء داخل المنصات الاجتماعية بفعالية تفوق في بعض الأحيان تأثير المستخدمين الحقيقيين.
هذا التأثير يثير احتمالًا واقعيًا وخطيرًا، وهو استخدام هذه الروبوتات من قبل جهات مدعومة من دول للتلاعب بالرأي العام. أو توجيه النقاشات الجماهيرية، لا سيما مع اتساع قدراتها في المحاكاة والمخاطبة.
تأثير روبوتات الذكاء الاصطناعي على وسائل الاعلام التقليدية
تتجه المنصات الاجتماعية بشكل متسارع نحو تغوّل الذكاء الاصطناعي، حيث لم تعد المشاركات والتفاعلات حكرًا على المستخدمين البشر، بل باتت منشورات الذكاء الاصطناعي، والردود المُولدة آليًا، جزءًا متزايدًا من المحتوى اليومي. في ظاهرة تطرح تساؤلات عميقة.
هذا التحول المفاجئ لا يخلو من تبعات، إذ يثير نقاشات حادة حول الشفافية والأخلاقيات. لا سيما حين لا يدرك المستخدم العادي ما إذا كان يتفاعل مع إنسان أم روبوت. فهل من الضروري دائمًا الإفصاح عن هوية الذكاء الاصطناعي؟. وماذا لو كان هذا الذكاء الاصطناعي يقدّم حججًا متماسكة ويُسهم في الحوار بشكل مثمر؟
هذه المخاوف تعكس صراعًا داخليًا في كبرى شركات التكنولوجيا، التي تجد نفسها مطالبة بالتوفيق بين تسريع الابتكار والحفاظ على الحدود الأخلاقية الواضحة.