عاجل

شات جي بي تي... باحث يكشف الخوارزميات التي تقف وراء الذكاء الاصطناعي

الذكاء الاصطناعي
الذكاء الاصطناعي

قال المهندس هشام هارون، الباحث المتخصص في تدريب وتشغيل نماذج الذكاء الاصطناعي، إن تشات جي بي تي أو أي نموذج لغوي عملاق يعتمد بشكل أساسي على احتمالات الكلمات بناءً على السياق الذي يتلقاه، مضيفا:" هو ليس واعيًا أو مدركًا للبشر، بل هو مجرد كود برمجي يقوم بتوقع الكلمة التالية".

نقص البيانات الكاملة وأثره على دقة الإجابات

وأوضح خلال مداخلة هاتفية عبر قناة إكسترا نيوز إلى أن ما يبدو أحيانًا كأنه "احتيال" أو تقديم معلومات خاطئة ليس مقصودًا من النموذج، وإنما يرجع إلى طبيعة البيانات التي تدرب عليها، وهي مستمدة من محتوى الإنترنت دون تصفية صارمة، مما يؤدي إلى وجود أخطاء أو معلومات مضللة. 

وأضاف:"النموذج يتعلم من هذه البيانات ويعيد إنتاجها، لذا فالمشكلة ليست في الذكاء الاصطناعي نفسه، بل في جودة البيانات التي يتدرب عليها"، مشيرا إلى أن النماذج اللغوية تعاني من نقص في تغطية بعض التخصصات والمجالات، بالإضافة إلى طريقة تقسيم الكلمات إلى أجزاء (Tokenization) التي قد تؤثر على فهم المعلومات بشكل كامل.

اعتراف النموذج بالأخطاء.. هل هو فهم حقيقي؟

ونوه بأن هذا يؤدي إلى ظاهرة تسمى "الهلوسة" أو تقديم معلومات غير دقيقة، وهي من أبرز التحديات التي تواجه الذكاء الاصطناعي حاليًا، مشيرا إلى أن تشات جي بي تي لا يملك مفهومًا للصح أو الخطأ، وإنما يختار الاحتمالات الأقرب بناءً على البيانات المتاحة، وعندما يخطئ ويُصحح، فهو لا يعترف بوعي أو فهم، بل يعيد توليد إجابة جديدة بناءً على طلب المستخدم".

نصائح هامة للمستخدمين: كيف تميز الإجابات الموثوقة؟

نوه هشام هارون إلى أهمية وعي المستخدم عند التعامل مع نماذج الذكاء الاصطناعي، مشيرًا إلى ثلاثة نقاط رئيسية:

الأمان وحماية البيانات: “يجب أن يكون المستخدم مدركًا أن البيانات التي يرسلها يمكن أن تُستخدم في تدريب النماذج، لذا من المهم عدم مشاركة معلومات حساسة”.

مهارة كتابة الأوامر (Prompt Engineering): "على المستخدم أن يتعلم كيف يطرح الأسئلة بشكل دقيق وواضح للحصول على إجابات أكثر دقة.

طلب التفكير خطوة بخطوة: “يمكن للمستخدم أن يطلب من النموذج التفكير ببطء وتفصيل قبل إعطاء الإجابة، ما يساعد على تقليل الأخطاء وزيادة دقة المعلومات”.

تم نسخ الرابط