في تطورٍ جديد بمجال، يعمل باحثون من مختبر علوم الحاسوب والذكاء الاصطناعي (CSAIL) في معهد ماساتشوستس للتكنولوجيا على معالجة واحدة من أبرز مشكلات النماذج الحديثة: الثقة الزائدة في الإجابات، فالنماذج المتقدمة اليوم، رغم قدراتها العالية في الاستدلال، تميل إلى تقديم إجاباتٍ مؤكدة بالدرجة نفسها سواء كانت صحيحة أو مجرد تخمين
يرجع الباحثون هذه المشكلة إلى خللٍ إذ تعتمد أساليب التعلم المعزز الحالية على مكافأة النموذج عند تقديم إجابة صحيحة ومعاقبته عند الخطأ، من دون وبذلك، يحصل النموذج الذي يصل الى الإجابة الصحيحة عبر تحليل دقيق على المكافأة نفسها التي يحصل عليها نموذج آخر قد يكون مع مرور الوقت، يؤدي هذا إلى تدريب النماذج على الإجابة بثقةٍ عالية دائماً، بغض النظر عن مستوى معرفتها الحقيقي
ولمعالجة هذا الخلل، طوّر الباحثون تقنية جديدة تُعرف باسم RLCR (التعلم تتيح هذه الطريقة للنماذج تقديم تقدير دقيق أي أن النموذج لا يكتفي بالإجابة، بل يقيّم أيضاً مدى تأكده منها ويعبر عنه بنسبة مئوية
أظهرت التجارب أن هذه التقنية قادرة على تقليل أخطاء تقدير الثقة بنسبة تصل إلى 90%، مع الحفاظ على دقة الإجابات أو حتى تحسينها، سواء في المهمات التي تدرب عليها النموذج أو في مهمات كما تفوقت هذه الطريقة على الأساليب التقليدية التي تضيف تقدير الثقة بعد انتهاء التدريب
تكمن أهمية هذا التطور في تطبيقاته العملية، خصوصاً في مجالات حساسة مثل الطب والقانون والتمويل، بحيث يمكن أن يؤدي الإفراط في فالنموذج الذي يعبّر عن ثقة عالية رغم دقة محدودة، يعدّ أكثر خطورة من نموذج يخطئ من دون ادعاء اليقين، لأنه يمنع المستخدمين من البحث عن رأي ثانٍ
كما أظهرت الدراسة أن إدماج التفكير في عدم اليقين يعزز من أداء الأنظمة الأخرى التي تعتمد على مخرجات هذه النماذج، إذ تبين أن تحليل النموذج لدرجة معرفته يضيف معلومات قيمة وليس مجرد تفاصيل إضافية
بهذا، يمثل هذا النهج خطوة مهمة نحو تطوير أنظمة أكثر شفافيةً وموثوقية، قادرة ليس على تقديم الإجابات فحسب، بل أيضاً على الاعتراف بحدود معرفتها