الذكاء الاصطناعي يتعلم التواضع: تقنية MIT الجديدة تجعله يعترف بحدود معرفته


هذا الخبر بعنوان "تعليم الذكاء الاصطناعي قول “لست متأكداً”: خطوة نحو موثوقية أكبر" نشر أولاً على موقع syriahomenews وتم جلبه من مصدره الأصلي بتاريخ ٢٤ نيسان ٢٠٢٦.
لا يتحمل موقعنا مضمونه بأي شكل من الأشكال. بإمكانكم الإطلاع على تفاصيل هذا الخبر من خلال مصدره الأصلي.
في خطوة نوعية بمجال الذكاء الاصطناعي، يسعى باحثون في مختبر علوم الحاسوب والذكاء الاصطناعي (CSAIL) التابع لمعهد ماساتشوستس للتكنولوجيا إلى حل إحدى أبرز التحديات التي تواجه النماذج الحديثة: الإفراط في الثقة بالإجابات، حتى عندما تكون غير دقيقة. فبالرغم من القدرات الاستدلالية المتقدمة التي تتمتع بها النماذج الحالية، إلا أنها تميل إلى تقديم إجاباتها بمستوى عالٍ من اليقين سواء كانت صحيحة تمامًا أو مجرد تخمين.
يعزو الباحثون هذه المشكلة إلى خلل في منهجيات تدريب هذه النماذج. فأساليب التعلم المعزز المتبعة حاليًا تكافئ النموذج عند الإجابة الصحيحة وتعاقبه عند الخطأ، دون الأخذ في الاعتبار درجة اليقين التي توصل بها النموذج إلى إجابته. وهذا يعني أن النموذج الذي يصل إلى إجابة صحيحة بعد تحليل دقيق يحصل على نفس المكافأة التي ينالها نموذج آخر قد يكون قد خمن الإجابة عشوائيًا. وبمرور الوقت، يؤدي هذا إلى تدريب النماذج على الإجابة بثقة مطلقة دائمًا، بغض النظر عن مدى معرفتها الحقيقية.
لمعالجة هذا القصور، قام الباحثون بتطوير تقنية مبتكرة أطلقوا عليها اسم RLCR، وهي اختصار لـ "التعلم المعزز مع مكافآت المعايرة". تتيح هذه الطريقة للنماذج أن تقدم تقديرًا دقيقًا لمستوى ثقتها في الإجابة، بالإضافة إلى الإجابة نفسها. بمعنى آخر، لم يعد النموذج يكتفي بتقديم الإجابة فحسب، بل يقوم أيضًا بتقييم مدى تأكده منها ويعبر عن ذلك بنسبة مئوية واضحة.
أظهرت التجارب العملية أن تقنية RLCR قادرة على تقليص أخطاء تقدير الثقة بنسبة مذهلة تصل إلى 90%، مع الحفاظ على دقة الإجابات أو حتى تحسينها. وقد لوحظ هذا الأداء المميز سواء في المهام التي تدرب عليها النموذج مسبقًا أو في مهام جديدة لم يسبق له التعامل معها. كما تفوقت هذه الطريقة بشكل واضح على الأساليب التقليدية التي تضيف تقدير الثقة كخطوة لاحقة بعد اكتمال التدريب.
تكمن الأهمية البالغة لهذا التطور في تطبيقاته العملية، خاصة في القطاعات الحساسة مثل الطب والقانون والتمويل، حيث يمكن أن يؤدي الإفراط في الثقة إلى اتخاذ قرارات خاطئة وخطيرة. فالنموذج الذي يعبر عن ثقة عالية رغم محدودية دقته، يعتبر أكثر خطورة من نموذج يخطئ دون ادعاء اليقين، لأنه قد يمنع المستخدمين من البحث عن رأي ثانٍ أو التحقق من المعلومات. علاوة على ذلك، بينت الدراسة أن دمج التفكير في عدم اليقين يعزز من أداء الأنظمة الأخرى التي تعتمد على مخرجات هذه النماذج، حيث يضيف تحليل النموذج لدرجة معرفته معلومات قيمة تتجاوز مجرد التفاصيل الإضافية.
بهذا، يمثل هذا النهج المبتكر خطوة جوهرية نحو بناء أنظمة ذكاء اصطناعي تتسم بمزيد من الشفافية والموثوقية، أنظمة لا تكتفي بتقديم الإجابات، بل تمتلك القدرة على الاعتراف بحدود معرفتها. أخبار سوريا الوطن١-وكالات-النهار
علوم وتكنلوجيا
تكنولوجيا
تكنولوجيا
تكنولوجيا