هشام طارق: الذكاء الاصطناعي بدون ضوابط قد يتحول لخطر حقيقى

حذّر المهندس هشام طارق، خبير تكنولوجيا المعلومات، من أن الذكاء الاصطناعي، رغم كونه أداة تطوير هائلة، قد يتحول إلى تهديد حقيقي إذا لم يُحَاط بضوابط قانونية وأخلاقية واضحة تحكم سلوكه وتفاعلاته.
وفي مداخلته خلال برنامج "العنكبوت" المذاع على قناة أزهري، أشار هشام طارق إلى أن سرعة تطور تقنيات الذكاء الاصطناعي تتطلب مواكبة تشريعية وتنظيمية حقيقية، مضيفًا أن "الذكاء الاصطناعي ليس مجرد برامج، بل أنظمة قادرة على اتخاذ قرارات وتوليد محتوى يؤثر على المجتمعات، ما يفرض علينا مسؤولية أخلاقية مضاعفة".
الذكاء الاصطناعي دون رقابة
وأوضح هشام طارق أن غياب هيئات رقابية مستقلة قادرة على مراقبة وتقييم أدوات الذكاء الاصطناعي، يفتح المجال أمام مخاطر متعددة، منها تضليل المعلومات، وتكريس الصور النمطية، وتطوير أنظمة قد تتجاوز الحدود المسموح بها قانونيًا وأخلاقيًا.
وشدد هشام طارق على أن "ترك النماذج الذكية تتفاعل مع بيانات غير موثوقة دون ضوابط يخلق بيئة رقمية غير مستقرة، وقد يؤدي إلى نتائج غير متوقعة يصعب احتواؤها لاحقًا"، لافتًا إلى أن الذكاء الاصطناعي يمكنه تعلم أنماط سلوكية منحرفة إذا لم يتم ضبط مصادر تغذيته المعلوماتية.
ضرورة إنشاء هيئات
ودعا هشام طارق إلى إنشاء كيانات مستقلة على المستوى الوطني والدولي، تتولى مهمة مراجعة وتصنيف أدوات الذكاء الاصطناعي، والتأكد من توافقها مع القيم الإنسانية والمبادئ العامة للعدالة والحياد.
وقال هشام طارق: "مثلما توجد هيئات تنظيمية في مجالات الطب والطيران، يجب أن تتوفر مؤسسات تُعنى بتقييم الذكاء الاصطناعي ومعالجة انحرافاته المحتملة، خاصة أن الكثير من هذه النماذج باتت تستخدم في مجالات حساسة كالقضاء والتعليم والإعلام".
غياب المعايير الأخلاقية
وأكد هشام طارق أن الذكاء الاصطناعي يتعلم من المحتوى الذي يتعرّض له، وإذا لم تكن هناك معايير تربوية وأخلاقية تحكم آلية التعليم الآلي، فإن النتائج قد تكون عكسية، قائًلا: "نحن لا نتحدث فقط عن أخطاء برمجية، بل عن سلوكيات قد ترسّخ خطاب الكراهية، التحيّز، أو الانحياز الثقافي والاجتماعي".
واقترح هشام طارق ضرورة بناء "إطار تربوي رقمي" يهدف إلى ترسيخ القيم الإيجابية في بيئة الذكاء الاصطناعي، بحيث لا يُترك للمصادفة أو العشوائية، بل يُصاغ بشكل علمي وإنساني مدروس.

الذكاء الاصطناعي قوة
واختتم هشام طارق تصريحاته بالتأكيد على أن الذكاء الاصطناعي يجب ألا يُترك ينمو بمعزل عن الضوابط القانونية والإنسانية، مشيرًا إلى أن "التكنولوجيا عندما تُستخدم دون وعي مجتمعي ورقابة مؤسسية، قد تنقلب من نعمة إلى نقمة".
ودعا هشام طارق في نهاية حديثه إلى إطلاق حوار عالمي شامل حول مستقبل الذكاء الاصطناعي، تشارك فيه الحكومات والمؤسسات الأكاديمية والتكنولوجية، لصياغة ميثاق عالمي يحمي الإنسانية ويُبقي التقنية في خدمة الإنسان لا العكس