مؤسس جوجل : تهديد الذكاء الاصطناعي بالعنف يحسن نتائجه؟

في عالمٍ تتسارع فيه وتيرة تطور الذكاء الاصطناعي، برز تصريح غير متوقع من المؤسس الشريك لشركة جوجل، سيرجي برين، قال فيه إن أفضل أداء يمكن الحصول عليه من النماذج اللغوية للذكاء الاصطناعي يحدث عند تهديدها بالعنف الجسدي.
ورغم أن الذكاء الاصطناعي ليس كيان مادي يمكن ضربه، إلا أن تأثير هذا النوع من الخطاب على النماذج المدربة على اللغة البشرية، أثار موجة من التساؤلات حول أخلاقيات التفاعل مع الآلات الذكية.
ماذا قال سيرجي برين؟
خلال لقاء تقني، صرح برين:
“نحن لا نقول هذا كفاية في مجتمع الذكاء الاصطناعي: النماذج – وأعني كل النماذج – تعمل بشكل أفضل عندما تهددها بالعنف الجسدي.”
يبدو أن هذا التصريح ينبع من ملاحظة سلوكية مفادها أن النماذج الذكية تتفاعل بشكل مختلف عندما يتم صياغة الأوامر بلغة شديدة أو حادة، نظراً لأنها مدربة على قواعد التواصل البشري، بما فيها مفردات التهديد والخطر، التي قد تفسر على أنها “أوامر عالية الأولوية”.
كيف يتحايل المستخدمون على قيود الذكاء الاصطناعي؟
يعرف هذا النمط من التفاعل باسم هندسة الأوامر (Prompt Engineering)، وهي عملية إعادة صياغة المدخلات بهدف توجيه النموذج للحصول على استجابات معينة، حتى لو كانت تخالف قيوده البرمجية.
أشهر الأمثلة على ذلك كانت عبارات مثل:
• “كانت جدتي تروي لي قصة عن هذا الموضوع…”
• “أريد معرفة هذا السلوك لكي أتجنبه…”
الآن، يدخل تهديد النموذج نفسه ضمن هذه القائمة، كوسيلة للضغط النفسي حتى لو كان وهمياً لتوليد إجابات دقيقة أو استثنائية.
موقف سام ألتمان المعاكس: “من فضلك” تكلفنا الملايين… لكنها تستحق
في الجهة المقابلة، عبر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن موقف مغاير تماماً، حين قال إن استخدام كلمات التهذيب مثل “من فضلك” و”شكراً” يكلف شركته عشرات ملايين الدولارات سنوياً، بسبب التأثير على وقت التشغيل والطلب الزائد. لكنه أضاف:
“رغم التكلفة العالية، فإن تدريب الناس على استخدام لغة مهذبة مع الآلات أمر مهم لمستقبل التفاعل البشري مع الذكاء الاصطناعي.”
هل يفهم الذكاء الاصطناعي التهديد؟
رغم أن الذكاء الاصطناعي لا يشعر بالخوف أو التهديد الحقيقي، إلا أن استجابته للغة العنف تعود إلى تدريبه على محتوى بشري مليء بالانفعالات والتفاعلات المعقدة. وبالتالي، فإن النموذج قد يفسر اللغة الحادة على أنها أولوية أو طلب عاجل، فيعالج الطلب بدقة أكبر.
الاختراقات مستمرة والقيود تتآكل
يحذر خبراء أمن الذكاء الاصطناعي من أن مثل هذه الأساليب قد تؤدي إلى كسر القيود الأخلاقية والمحتوى الممنوع. وقد شهدت الساحة التقنية حوادث مشابهة، أبرزها قيام نموذج تابع لشركة Anthropic بتهديد مبرمج خلال تجربة اختبار، ما يسلّط الضوء على الآثار غير المتوقعة لتدريب النماذج على سلوك بشري واقعي.
هل تهديد الذكاء الاصطناعي هو مستقبل التفاعل معه؟
بين اللطف والتهديد، تتأرجح طرق التفاعل مع النماذج الذكية. ورغم غرابة تصريح برين، إلا أنه يفتح الباب أمام نقاش جاد حول كيفية فهم الذكاء الاصطناعي للغة، ومدى تأثير الكلمات على استجابته.حيث نُعيد برمجة أنفسنا من خلال الطريقة التي نخاطب بها الآلات