باحثون في معهد "MIT" يبتكرون طرقًا لفهم آليات اتخاذ القرارات في الذكاء الاصطناعي

يعمل باحثون في “معهد ماساتشوستس للتكنولوجيا” على تطوير أساليب جديدة تتيح للذكاء الاصطناعي تقديم تفسيرات لقراراته المتخذة، وذلك بهدف تعزيز الشفافية إلى جانب الدقة. ويسعى هذا الجهد إلى تمكين البشر من فهم الأساس المنطقي الذي تستند إليه هذه التوقعات.

تتزايد أهمية هذا المجال، المعروف باسم «الذكاء الاصطناعي القابل للتفسير»، في القطاعات الحساسة كالرعاية الصحية والنقل والأبحاث العلمية. ففي هذه المجالات، يحتاج المستخدمون إلى فهم العوامل التي قادت إلى نتيجة معينة قبل الوثوق بها أو الاعتماد عليها. على سبيل المثال: قد يرغب طبيب في معرفة الأسباب التي دفعت النظام لاقتراح تشخيص معين، أو يحتاج مهندسو السيارات ذاتية القيادة لفهم الإشارات التي استند إليها النظام في تفسير حالة مرورية محددة.

يركز الباحثون على منهجية تسمى «نموذج عنق الزجاجة المفاهيمي»، حيث تعتمد على استخلاص مجموعة من المفاهيم أو الخصائص التي يسهل على البشر فهمها، ثم استخدامها كأساس لاتخاذ القرارات. فمثلاً: عند تصنيف الطيور، يمكن للنظام أن يتعرف أولاً على سمات بصرية مثل «أجنحة زرقاء» أو «أرجل صفراء» قبل تحديد نوع الطائر. وفي المجال الطبي، قد تتضمن هذه المفاهيم أنماطًا معينة في الأنسجة تساعد في تشخيص الأمراض.

يكمن التحدي الأكبر في هذه الطريقة في استخلاص مفاهيم دقيقة تعكس بشكل حقيقي الأنماط التي تعلمها النموذج، بدلاً من الاعتماد على مفاهيم عامة يحددها الخبراء مسبقًا والتي قد لا تعبر عن تعقيد المهمة. لتحقيق ذلك، طور فريق MIT تقنية تحدد الأنماط الداخلية للنموذج وتحولها إلى مفاهيم مفهومة للبشر، بحيث تصبح هذه المفاهيم جزءًا من عملية اتخاذ القرار للنموذج.

يؤكد الباحثون أن هذا الأسلوب يتيح تحقيق توازن بين الدقة والشفافية، حيث يركز النظام على العناصر الأكثر أهمية في كل قرار، ويقلل الاعتماد على العلاقات الخفية داخل النموذج والتي قد يصعب تفسيرها.

مع تزايد اعتماد المؤسسات على الذكاء الاصطناعي، من المتوقع أن تساهم هذه الأساليب في تعزيز موثوقية الأنظمة، واكتشاف التحيزات المحتملة، وضمان عمل الخوارزميات على النحو المتوقع، مما يمثل خطوة حاسمة نحو أنظمة ذكاء اصطناعي أكثر مسؤولية وشفافية.