الوزراء: الذكاء الاصطناعي يحقق قفزات كبرى.. والتنظيم ضرورة لمواجهة المخاطر

كشف مركز المعلومات ودعم اتخاذ القرار التابع لمجلس الوزراء، أن العالم يشهد حاليًا ثورة تكنولوجية غير مسبوقة بفضل التطور المتسارع في تقنيات الذكاء الاصطناعي، والتي باتت تؤثر بعمق على مختلف جوانب الحياة. ورغم المزايا الكبيرة التي توفرها هذه التكنولوجيا، إلا أنها تثير مخاوف متزايدة بشأن مخاطرها المحتملة، خصوصًا في مجالات الوظائف، والخصوصية، والأمن.
وأوضح المركز، في تحليل جديد له، أن الانتشار الواسع لتطبيقات الذكاء الاصطناعي يحتم على المجتمعات والحكومات تقييم التحديات التي قد تنجم عن استخدامه، والعمل على تطوير سياسات تضمن استغلال فوائده، وتقليل آثاره السلبية. وأشار إلى أن الذكاء الاصطناعي، رغم حياديته كأداة تقنية، قد يستخدم بطريقة تعزز من الأضرار ما لم يتم تنظيمه بشكل فعال.
أبرز المخاطر المرتبطة بالذكاء الاصطناعي
وسلط التحليل الضوء على عدد من المخاطر المصاحبة للاستخدام المتزايد للذكاء الاصطناعي، أبرزها:
التحيّز والتمييز الخوارزمي: حيث يمكن أن تسهم الخوارزميات في إعادة إنتاج التحيزات الاجتماعية نتيجة الاعتماد على بيانات تدريب غير متوازنة. ودعا المركز إلى تطوير خوارزميات عادلة وخالية من التحيز، والاعتماد على بيانات تدريب متنوعة.
الخصوصية وأمن البيانات: تعتمد تقنيات الذكاء الاصطناعي على جمع وتحليل كميات ضخمة من المعلومات الشخصية، مما يثير مخاوف بشأن خصوصية المستخدمين. وأوصى التحليل بضرورة وضع ضوابط صارمة لحماية البيانات.
المخاطر الأخلاقية: خاصة في الحالات التي تتخذ فيها أنظمة الذكاء الاصطناعي قرارات تؤثر على مصير الأفراد، مما يستوجب من المطورين مراعاة الجوانب الأخلاقية في تصميم هذه الأنظمة.
التهديدات الأمنية: مع تطور أدوات الذكاء الاصطناعي، تزداد احتمالات استخدامها في أنشطة خبيثة مثل الهجمات السيبرانية أو تطوير أسلحة مستقلة. وطالب المركز بتعزيز التعاون الدولي لوضع معايير عالمية للأمن السيبراني المرتبط بهذه التقنيات.
نشر المعلومات المضللة: أشار التحليل إلى خطر المحتوى المُزيّف الذي يُنتج باستخدام تقنيات مثل "التزييف العميق"، والذي يُستخدم في التلاعب بالرأي العام. وأكد على أهمية بناء أدوات لاكتشاف هذه المعلومات ومواجهتها.
جهود عالمية لتنظيم الذكاء الاصطناعي
وأكد المركز أن حوكمة الذكاء الاصطناعي أصبحت ضرورة ملحّة لضمان الاستخدام العادل والمسؤول لهذه التقنية، مشيرًا إلى أن بعض الدول بدأت بالفعل في تبني تشريعات لتنظيمها.
ووفقًا لمؤشر جامعة ستانفورد لعام 2023، فإن الهيئات التشريعية في 127 دولة أصدرت 37 قانونًا متعلقًا بالذكاء الاصطناعي. كما أقرّت منظمة اليونسكو، في نوفمبر 2021، اتفاقية دولية تهدف إلى ضمان احترام حقوق الإنسان والخصوصية، ومنع استخدام الذكاء الاصطناعي في المراقبة الجماعية أو التمييز.
تجربة الاتحاد الأوروبي
طرح الاتحاد الأوروبي، في أبريل 2021، أول مشروع قانون شامل لتنظيم الذكاء الاصطناعي، يقوم على تصنيف الأنظمة حسب درجة الخطورة إلى أربعة مستويات:
1. مخاطر غير مقبولة: مثل استخدام التعرف على الوجه في الأماكن العامة دون إذن.
2. مخاطر عالية: تشمل تطبيقات الذكاء الاصطناعي في التعليم والعدالة.
3. مخاطر محدودة: مثل استخدام البيانات دون إفصاح واضح.
4. مخاطر ضئيلة: كتعديل الوسائط الرقمية.
ومن المتوقع أن يبدأ تطبيق القانون تدريجيًا بداية من أغسطس 2024، ليتم تنفيذه بالكامل بحلول أغسطس 2026، مع استثناءات زمنية لبعض البنود الخاصة بالمخاطر العالية ومحو الأمية الرقمية.
الولايات المتحدة والصين والمملكة المتحدة
أشار التحليل إلى جهود الولايات المتحدة، حيث تم طرح "مشروع قانون حقوق الذكاء الاصطناعي"، بالإضافة إلى أمر تنفيذي وقّعه الرئيس الأمريكي السابق جو بايدن، يضع معايير جديدة لأمان الذكاء الاصطناعي وخصوصية المستخدمين.
أما الصين، فقد تبنّت منذ عام 2021 مجموعة من القوانين لتنظيم الذكاء الاصطناعي، ركزت على مكافحة "التزييف العميق" وتنظيم المحتوى الرقمي، مع فرض التزامات على جميع مراحل إنتاج المحتوى.
وفي المملكة المتحدة، تم تقديم مقترحات في مارس 2023 لإنشاء إطار تنظيمي مرن يراعي الابتكار ويعتمد على خمسة مبادئ رئيسة، أبرزها الشفافية، والعدالة، والمساءلة.
تحديات مستقبلية
ورغم هذه الجهود، شدد المركز على أن هناك تحديات حقيقية تعوق تنظيم الذكاء الاصطناعي، أبرزها:
- السرعة الهائلة للتطور التكنولوجي، والتي قد تتجاوز قدرة التشريعات على مواكبتها.
- تحقيق التوازن بين التنظيم والابتكار، حيث أن فرض قيود مفرطة قد يعيق النمو والاستكشاف التقني.
و دعا مركز المعلومات إلى ضرورة تبني نهج دولي مشترك يضمن الاستخدام المسؤول للذكاء الاصطناعي، ويحمي المجتمعات من مخاطره، دون الإضرار بفرص الابتكار.
وأكد أن السياسات التنظيمية الشاملة والتوعية المجتمعية تمثل ركيزة أساسية لبناء مستقبل تقني أكثر أمنًا وعدلًا واستدامة.