عاجل

الحريات تتلاشى في أمريكا.. البنتاجون يوظف الذكاء الاصطناعي لقمع المعارضة

البنتاجون
البنتاجون

أفادت وثيقة مسرّبة من قيادة العمليات الخاصة الأمريكية في وزارة الدفاع (البنتاجون)، ونشرها موقع "ذا إنترسبت"، أن الولايات المتحدة تعمل على تطوير تقنيات تعتمد على الذكاء الاصطناعي بهدف تنفيذ حملات دعائية رقمية متقدمة تستهدف الرأي العام الخارجي، في محاولة للحفاظ على تفوقها أمام قوى مثل الصين، روسيا، وإيران في مجال حرب المعلومات.

وتُظهر الوثيقة، التي توصف بأنها "خريطة طريق تكنولوجية مستقبلية"، تطلعات البنتاجون إلى تسخير أنظمة التعلم الآلي ونماذج اللغة الكبيرة للتأثير في الخطاب العام على الساحة العالمية، والعمل على التصدي للخطابات المعارضة خارج الحدود الأمريكية.

الطموح التكنولوجي لقيادة العمليات الخاصة

وتتضمن الوثيقة تفاصيل حول نية القيادة اقتناء معدات متطورة تشمل كاميرات حديثة وأجهزة استشعار وأسلحة تعتمد على الطاقة الموجهة، إلا أن أكثر ما يثير الجدل هو التركيز على تطوير برمجيات ذكاء اصطناعي متقدمة لإدارة حملات الدعم الإعلامي العسكري.

وتسعى القيادة إلى بناء أنظمة قادرة على إنتاج محتوى دعائي أوتوماتيكي موجه، يعمل بأقل تدخل بشري، من خلال نماذج تعلم آلي تفاعلية، قادرة على "ضبط الروايات" وبناء رسائل مخصصة تستهدف فئات أو أفرادًا بعينهم.

كما تلفت الوثيقة إلى التغير المتسارع في بيئة المعلومات الرقمية، الأمر الذي يجعل الاعتماد على الأنظمة التقليدية غير كافٍ لمواكبة التحديات. ومن هنا ترى قيادة العمليات الخاصة أن أدوات مثل ChatGPT أو Gemini يُمكن أن تُحدث ثورة في عمليات التأثير الإعلامي عبر الإنترنت.

وهذه الأدوات قادرة على إنتاج محتوى فوري بعدة أساليب، مما يسمح لها بإحداث تأثير ملموس على الجماهير دون الحاجة إلى تدخل بشري مكثف.

الاعتبارات القانونية والأخلاقية

رغم أن القوانين الأمريكية، إلى جانب السياسات المعتمدة في البنتاجون، تحظر استهداف المواطنين الأمريكيين بحملات دعائية عسكرية، إلا أن الطبيعة المفتوحة للإنترنت تجعل من الصعب السيطرة الكاملة على نطاق انتشار هذه العمليات.

وفي هذا السياق، أوضح المتحدث باسم قيادة العمليات الخاصة، دان ليسارد، أن جميع تقنيات الذكاء الاصطناعي قيد التطوير تخضع لإطار عمل وزارة الدفاع بشأن الذكاء الاصطناعي، والذي يفرض "رقابة بشرية وشفافية كاملة"، ويؤكد التزام هذه البرامج بالقوانين الأمريكية، وهدفها دعم الأمن القومي في مواجهة تهديدات عالمية.

قلق أخلاقي متصاعد

مع ذلك، تتصاعد المخاوف بشأن البعد الأخلاقي لهذا التوجه، فقد حذرت جيسيكا براندت من معهد بروكينجز، خلال جلسة في مجلس الشيوخ حول الذكاء الاصطناعي عام 2023، من أن تقنيات اللغة الكبيرة قد تزيد من قدرة الحملات الدعائية على الإقناع، مما يُضعف الثقة بالحقيقة الموضوعية.

كما أظهرت دراسة نُشرت عام 2024 في مجلة PNAS Nexus أن المحتوى الدعائي الذي تنتجه نماذج الذكاء الاصطناعي يمكن أن يكون بنفس فعالية الحملات التي تديرها جهات أجنبية تقليدية.

سباق عالمي في ميدان المعلومات

تأتي هذه المساعي في سياق تنافس عالمي محموم للسيطرة على فضاء المعلومات، إذ تشير تقارير عديدة إلى استخدام الصين وروسيا وإيران لأدوات الذكاء الاصطناعي في حملات سرية للتأثير على الرأي العام.

في هذا الإطار، كشفت شركة OpenAI في تقرير صدر في مايو 2024 عن محاولات من تلك الدول لاستغلال أدواتها في نشر دعاية، لكن دون نجاح يُذكر. 

في المقابل، سلط تقرير في "نيويورك تايمز" الضوء على برنامج صيني يُعرف باسم "GoLaxy"، يُقال إنه يستطيع بناء حملات دعائية شديدة التخصيص اعتمادًا على تحليل سلوك مستخدمي مواقع التواصل.

استراتيجية أمريكية مضادة

تدافع قيادة العمليات الخاصة عن هذه المبادرات باعتبارها ضرورة ملحة للتصدي للتهديدات الخارجية، وتطمح إلى إنشاء منظومات ذكاء اصطناعي قادرة على جمع وتحليل المعلومات، والرد السريع على الخطاب المعارض، بل وحتى محاكاة سلوك الجماهير المستهدفة لاختبار فعالية الرسائل الدعائية قبل إطلاقها فعليًا.

لكن خبراء مثل هايدي خلاف من معهد AI Now يُحذّرون من هشاشة هذه الأنظمة، إذ قد تكون عرضة للاختراق أو توليد محتوى مضلل وغير مقصود، بما يُهدد بارتداد الحملات على القائمين بها.

تاريخ طويل من الحملات السرية

جدير بالذكر أن هذا التوجه ليس جديدًا في السياسة الأمريكية، ففي عام 2022، كشف باحثون عن شبكة من الحسابات المزيفة تديرها القيادة المركزية الأمريكية، نشرت محتوى مناهضًا لروسيا وإيران، إلا أنها فشلت في تحقيق التأثير المطلوب، وتسببت في إحراج للقيادة العسكرية.

كما نشرت وكالة "رويترز" في 2024 تقريرًا عن حملة أمريكية سرية هدفت إلى تقويض ثقة الجمهور في لقاح كوفيد-19 الصيني داخل دول آسيوية، مما أثار انتقادات لاذعة. ويُعلق الباحث إيمرسون بروكينغ من المجلس الأطلسي قائلاً إن هذه الحملات غالبًا ما تكون ضعيفة التأثير، وقد تأتي بنتائج عكسية عند كشفها.

ويضيف بروكينج أن استخدام الذكاء الاصطناعي لا يضمن بالضرورة تحسين الأداء الدعائي، بل قد يؤدي إلى إنتاج محتوى ركيك أو غير دقيق، ما يجعله "أكثر غباءً" بدلًا من أن يكون أكثر ذكاءً.

تم نسخ الرابط