إلى أي مدى يمكننا الوثوق بالذكاء الاصطناعي

  • 9/2/2019
  • 00:00
  • 1
  • 0
  • 0
news-picture

«تعلم الآلة» هو أحد فروع الذكاء الاصطناعي، يستهدف تمكين الأجهزة الحاسوبية من التعلم بمفردها. ويستخدم خوارزميات تحدد الأنماط في البيانات التي تم جمعها، وبناء النماذج التي تشرح العالم من منظور هذه البيانات، والتنبؤ بالأشياء دون وجود قواعد ونماذج واضحة مبرمجة مسبقا، أي إنه يعتمد على بناء الخوارزميات التي تتعلم من البيانات المتاحة ومن ثم تتنبأ بالبيانات المستقبلية، فيتاح - للباحثين وعلماء البيانات والمهندسين والمحللين - إصدار القرارات والوصول إلى نتائج ذات موثوقية كبيرة وقابلية عالية للتكرار. معنى هذا أنه في كل مرة ينتج فيها المهندسون أنموذجا يقوم على «تعلم الآلة»، فإنه من المفترض أنهم يثقون ضمنيا في أن هذا النموذج سوف يقدم تنبؤات معقولة. وعادة ما يتم هذا التقييم بناء على مقاييس معينة. ولكن هذه المقاييس - في بعض الأحيان - تكون مضللة، فماذا يمنع أن تتسرب بعض البيانات - التي يجب ألا تكون متاحة - عن طريق الخطأ إلى البيانات التي تم تدريب النموذج عليها. ومن ثم ففي بعض التطبيقات لا يمكننا أن نسلم رقابنا للآلة فنثق في قراراتها. فبالتأكيد لا ينبغي للطبيب أن يقوم بإجراء جراحة للمريض لمجرد أن «النموذج قال ذلك». حتى في المواقف الأقل خطورة، مثل اختيار فيلم لمشاهدته من موقع للأفلام، فإنه يلزم توفر قدر معين من الثقة قبل أن نفرط في ساعات من وقتنا بناء على ما يختاره النموذج. ورغم أن العديد من النماذج القائمة على «تعلم الآلة» عبارة عن صناديق سوداء، أي يكون التعامل فيها مع النموذج كمدخلات ومخرجات دون معرفة ما يجري داخله، فإن فهم الأساس المنطقي لتوقعات النموذج من شأنه أن يساعد المستخدمين له على تقرير متى يثقون أو لا يثقون في توقعاته. فحينما يتنبأ النموذج على سبيل المثال بأن مريضا معينا مصاب بالإنفلونزا، ثم يتم تفسير هذا التوقع بواسطة «شرح» يسلط الضوء على الأساس المنطقي أو الأعراض الأكثر أهمية التي اعتمد عليها النموذج في الوصول إلى هذا القرار، فإنه يمكن حينئذ للطبيب أن يتخذ قرارا بالثقة، أو بعدم الثقة، في توصية النموذج. وقد تم طرح تقنية تسمى Interpretable Model-Agnostic Explanations (LIME) لشرح تنبؤات التصنيف الناتجة عن أي نموذج قائم على «تعلم الآلة»، وتقييم مدى فائدتها في المهام المختلفة وذلك من منظور الثقة، أي تحديد إلى أي مدى يمكننا أن نثق في معطيات النموذج، وذلك من خلال إحداث اضطراب في المدخلات - مثل الكلمات أو أجزاء من الصورة- ومعرفة كيفية تتغير التنبؤات ومن ثم معرفة الأساس المنطقي وراء قرارات النموذج. وبالعودة إلى مثالنا للتنبؤ بالإنفلونزا، قد تكون هناك ثلاثة أعراض يشكو منها المريض، وهي بالفعل تمثل مدخلات نموذج الصندوق الأسود، لكن إذا وجد الطبيب أعراضا مغايرة فإنه لن يعتمد حينئذ على قرار النموذج بصورة تلقائية، وإنما سيتبصر فيما تقدمه تقنية (LIME) من شرح للأساس المنطقي الذي استخدمه النموذج للوصول إلى هذا القرار.

مشاركة :