Discoverبرامجدراسة:هلوسات الذكاء الاصطناعي حقيقة رياضية لا مفر منها تؤكدها بحوث OpenAI
دراسة:هلوسات الذكاء الاصطناعي حقيقة رياضية لا مفر منها تؤكدها بحوث OpenAI

دراسة:هلوسات الذكاء الاصطناعي حقيقة رياضية لا مفر منها تؤكدها بحوث OpenAI

Update: 2025-10-28
Share

Description

 تنقل نايلة الصليبي في "النشرة الرقمية" دراسة قامت بها  شركة OpenAI المطورة لبرنامج ChatGPT تؤكد فيها أن هلوسات الذكاء الاصطناعي ليست مجرد عيوب هندسية يمكن إصلاحها، بل حقيقة رياضية تنبع من قيود إحصائية وحسابية أساسية لا يمكن تجاوزها.

 وصف باحثون من شركة OpenAI  في دراسة علمية نشرت في  سبتمبر 2025.بأن مشكلة الهلوسة: "مثل الطلاب الذين يواجهون أسئلة امتحان صعبة، فإن النماذج اللغوية الكبيرة تخمن أحياناً عندما تكون غير متأكدة، وتنتج عبارات معقولة، ولكنها غير صحيحة بدلاً من الاعتراف بعدم اليقين".

لم تكتف الدراسة بالنظريات، بل اختبرت نماذج متقدمة من مختلف الشركات. عندما سُئل نموذج DeepSeek-V3 الذي يضم 600 مليار من المعلمات " parameters عن عدد حروف D في كلمة "DEEPSEEK" ، تراوحت إجاباته بين "2" و"3" في عشر تجارب منفصلة، بينما قدمت نماذج Meta AI وClaude 3.7 Sonnet إجابات مشابهة تضمنت أرقاماً مبالغاً فيها مثل "6" و"7".

معلمات نموذج اللغة الكبير (LLM) هي الإعدادات التي تتحكم في مخرجات وسلوك نموذج اللغة الكبير (LLM) وتُحسّنهما.

  • من أين تأتي هذه الأخطاء المحددة؟

تتعلم نماذج اللغة أولاً من خلال التدريب المسبق، وهي عملية توقع الكلمة التالية في كميات ضخمة من النصوص. على عكس مشاكل التعلم الآلي التقليدية، لا توجد علامات” صحيح /أم / خطأ“مرفقة بكل عبارة.

فمن الصعب للغاية التمييز بين العبارات الصحيحة والعبارات غير الصحيحة عندما لا يكون هنالك أمثلة مصنفة على أنها غير صحيحة. ولكن حتى مع وجود العلامات، فإن بعض الأخطاء لا مفر منها. لفهم السبب، لنأخذ مثالاً بسيطا في التعرف على الصور، إذا صُنفت ملايين الصور للقطط والكلاب على أنها” قطط“ أو ”كلاب“، يمكن للخوارزميات أن تتعلم تصنيفها بشكل موثوق. ولكن بدلاً من ذلك، تُصنف كل صورة للحيوانات الأليفة حسب تاريخ ميلادها. لأن تواريخ الميلاد هي عشوائية في الأساس، فهذا سيؤدي دائمًا إلى أخطاء، بغض النظر عن مدى تقدم الخوارزمية.

  • ما هي عوامل الهلوسة الحتمية؟

حددت دراسة Open AI ثلاثة عوامل رياضية تجعل الهلوسة أمراً لا مفر منه:

  • عدم اليقين المعرفي - epistemic uncertainty

يحدث عندما تكون المعلومات نادرة الظهور في بيانات التدريب، مما يجعل النموذج يضطر للتخمين.

  • قيود النموذج الحسابية model limitations

تظهر عندما تتجاوز المهام المطلوبة القدرة التمثيلية للبنى التكنولوجية الحالية.

  • الصعوبة الحسابية المتأصلة - computational intractability

مشاكل لا تستطيع حتى الأنظمة فائقة الذكاء حلها نظرياً. 

كما كشفت الدراسة أن أساليب التقييم الصناعية الحالية تشجع الهلوسة فعلياً. فمن أصل عشرة تقييمات رئيسية شملتها الدراسة، تسعة منها تستخدم نظام تصنيف ثنائي يعاقب الإجابات الصريحة "لا أعرف" بينما يكافئ الإجابات الخاطئة لكن الواثقة.

  • ما هو مستقبل الذكاء الاصطناعي في ظل تحدي الهلوسات؟  

تؤكد نتائج دراسة OpenAI أن هلوسات الذكاء الاصطناعي ليست تحدياً هندسياً مؤقتاً يمكن حله بمزيد من التطوير، بل حقيقة رياضية دائمة تتطلب إعادة تفكير جذرية في طريقة استخدام هذه التقنيات.

بالنسبة للشركات والمؤسسات، الرسالة واضحة: ضرورة تطوير أطر حوكمة جديدة واستراتيجيات إدارة مخاطر تتعامل مع واقع أن مستوى معيناً من عدم الموثوقية سيستمر بغض النظر عن التحسينات التقنية المستقبلية.

هذا الاعتراف من OpenAI قد يمثل نقطة تحول في صناعة الذكاء الاصطناعي، حيث يتحول التركيز من محاولة القضاء على الهلوسات إلى تعلم كيفية التعايش معها وإدارة مخاطرها بطريقة فعالة.

 

يمكن الاستماع لـ "بودكاست النشرة الرقمية" على مختلف منصات البودكاست. الرابط للبودكاست على منصة أبل

للتواصل مع نايلة الصليبي عبر صفحة برنامَج"النشرة الرقمية"من مونت كارلو الدولية على لينكد إن وعلى تويتر salibi@  وعلى ماستودون  وبلوسكاي عبر موقع مونت كارلو الدولية مع تحيات نايلة الصليبي

Comments 
In Channel
loading
00:00
00:00
x

0.5x

0.8x

1.0x

1.25x

1.5x

2.0x

3.0x

Sleep Timer

Off

End of Episode

5 Minutes

10 Minutes

15 Minutes

30 Minutes

45 Minutes

60 Minutes

120 Minutes

دراسة:هلوسات الذكاء الاصطناعي حقيقة رياضية لا مفر منها تؤكدها بحوث OpenAI

دراسة:هلوسات الذكاء الاصطناعي حقيقة رياضية لا مفر منها تؤكدها بحوث OpenAI

مونت كارلو الدولية / MCD