الذكاء الاصطناعي ينقذ مهندس البرمجيات الذي تم فصله من العمل بواسطة آلة

  • 7/10/2018
  • 00:00
  • 7
  • 0
  • 0
news-picture

كشف ابراهيم ديالو Ibrahim Diallo أحد مطوري البرمجيات في ولاية كاليفورنيا أنه قد تم إقالته من وظيفته بواسطة آلة، ونقلت التقارير الإخبارية مؤخرًا الإحباط المتصاعد الذي شعر به عندما توقفت بطاقة التعريف الخاصة به عن العمل، وتم تعطيل تسجيل الدخول إلى نظام الكمبيوتر الخاص به، وفي النهاية تم إخراجه من المبنى بواسطة أفراد الأمن. ولم يتمكن مديروه من تقديم تفسير وقتها، وبدا أن هذه الواقعة قد تكون بسبب خلل في خوارزميات الذكاء الاصطناعي بنظام إدارة الشركة المؤتمت. بدء وقتها من كانوا يحذرون من الذكاء الاصطناعي ومدى خطورته على البشر يقولون أن هذه الحادثة ما هي إلا شيء بسيط من مخاطر الأتمتة والذكاء الاصطناعي التي سنواجها في المستقبل القريب، حيث أن قدرة الذكاء الاصطناعي في السيطرة على حياتنا أصبحت تزيد بصورة كبيرة وها هي الآلات لا تكتفي بأخذ وظائف البشر، بل إنها بدأت بالفعل في طردهم من وظائفهم. ولكن بعد التحقيق في هذه الحادثة كانت النتيجة معاكسة، فقد تم إقالة ابراهيم ديالو Ibrahim Diallo لأن مديرًا سابقًا لم يجدد عقده على نظام الكمبيوتر الجديد والأنظمة المؤتمتة الأخرى، لذلك فإن هذا الإجراء الذي اتخذته الآلة لم يكن بسبب المشاكل الناجمة عن خوارزميات الذكاء الاصطناعي، ولكن بسبب عدم اعتماد هذا النظام المؤتمت على تقنيات الذكاء الاصطناعي في عمله. لم تعرض الأنظمة وقتها أسباب اتخاذها هذا القرار لأنها ليس لديها بيانات معرفية بمعنى أنها لم يكن لديها نموذج مصمم لاحتواء المعرفة (مثل خبرة الموارد البشرية) في شكل قواعد ونصوص وروابط منطقية. وبالمثل لم تُظهِر الأنظمة أي ذكاء حسابي – القدرة على التعلم من مجموعات البيانات – مثل التعرف على العوامل التي قد تؤدي إلى فصل الموظفين. وبناء عليه يبدو أن ديالو قد فصل من عمله نتيجة لنظام قديم لم يتم تحديثه بعد بجميع البيانات اللازمة كما أنه مصمَّم بشكل سيئ ناجم عن خطأ بشري. ويبدو أن لوم الذكاء الاصطناعي كان هو الحل الأمثل وقتها. الاستنتاج الذي نستخلصه من هذه التجربة هو أن بعض وظائف الموارد البشرية مهيأة للأتمتة بواسطة الذكاء الاصطناعي، خاصة في هذه الحالة التي  أظهرت أن الأتمتة بشكل خاطئ تعتبر غير مرنة وغير فعالة. وعندما يتم أتمتة بعض وظائف الموارد البشرية سيكون لدى معظم المؤسسات الكبيرة كتيّب للموظفين يمكن ترميزه كنظام خبير آلي مع قواعد ونماذج واضحة. لقد أنشأت العديد من الشركات مثل هذه الأنظمة في مجموعة من المجالات التي تنطوي على المعرفة المتخصصة، وليس فقط في الموارد البشرية.موضوعات ذات صلة بما تقرأ الآن: المملكة المتحدة وفرنسا توقعان اتفاقية تعاون حول الذكاء… يوليو 5, 2018 كيف تختار ناسا التكنولوجيا لمحطة الفضاء الدولية يوليو 4, 2018 دور الذكاء الاصطناعي في تطوير أنظمة أتمتة وأمن المنازل يوليو 1, 2018 9 شركات تقنية في سباق للاستحواذ على الشركات الناشئة في مجال… يونيو 29, 2018 مايكروسوفت تحسن أداء تقنية التعرف على الوجه مع جميع درجات… يونيو 28, 2018 يمكن لأكثر أنظمة الذكاء الاصطناعي العملية استخدام مزيج من التقنيات لجعلها أكثر ذكاءًا، بحيث يمكن تعليمها طريقة تطبيق القواعد على الفروق الدقيقة في المواقف الحقيقية من سجلات الموارد البشرية في الشركة، وهذه هي الطريقة نفسها التي استخدمتها الأنظمة القانونية التي تعتمد القانون العام في إنجلترا حينما استخدمت السوابق التي حددتها الحالات السابقة. حيث يمكن للنظام مراجعة تفكيره كلما توفر المزيد من الأدلة في أي حالة باستخدام ما يُعرف باسم تحديث بايزي Bayesian updating، كما أن مفهوم الذكاء الاصطناعي المعروف باسم المنطق الضبابي Fuzzy Logic يمكنه أن يفسر المواقف التي لا تكون سوداء ولا بيضاء، وتطبيق الأدلة والاستنتاجات بدرجات متفاوتة لتجنب اتخاذ هذا النوع من القرارات الصارمة التي أدت إلى إقالة المهندس ديالو. في بعض الأحيان يتم التغاضي عن الحاجة إلى العديد من الأساليب في الموجة الحالية من الحماس المفرط لخوارزميات التعلم العميق، والشبكات العصبية الاصطناعية المعقدة المستوحاة من الدماغ البشري التي يمكنها التعرف على أنماط في مجموعات البيانات الكبيرة، وبما أن هذا هو كل ما يستطيعون القيام به فإن بعض الخبراء يدعون الآن إلى اتباع نهج أكثر توازناً. حيث أن خوارزميات التعلم العميق رائعة في التعرف على الأنماط لكنها بالتأكيد لا تُظهر فهماً عميقاً. من المحتمل أن يؤدي استخدام الذكاء الاصطناعي بهذه الطريقة إلى تقليل الأخطاء، وعندما يحدث ذلك يمكن للنظام تطوير وتبادل الدروس مع نظام ذكاء اصطناعي آخر متطابق موجود في شركات أخرى بحيث يتم تجنب الأخطاء المماثلة في المستقبل. وهذا شيء لا يمكن تطبيقه على الحلول البشرية، حيث أنه من الممكن أن يتعلم مدير بشري جيدًا من أخطائه وعدم تكرارها، ولكن من المحتمل أن يكرر المدير الذي يليه نفس الأخطاء. أحد الجوانب السلبية الأكثر إثارة للدهشة في تجربة فصل المهندس ديالو هي الافتقار إلى الإنسانية، حيث تم اتخاذ قرار وإن كان بالخطأ ولكن لم يتم إبلاغه به مسبقًا أو شرح الأسباب التي أدت لاتخاذ النظام هذا القرار. قد ترتكب خوارزميات الذكاء الاصطناعي أخطاء أقل ولكن هل سيكون من الأفضل إبلاغها بقراراتها التي يمكنها اتخاذها؟ بالطبع الجواب يكون لا فهنا لن يصبح قرارها بل يصبح قرار القائمين على تدريبها. قد يشعر الموظف الذي فُصل من عمله بأنه تعرض للظلم وقد يرغب في الطعن على القرار من خلال التوجه  للمحكمة، في هذه الحالة بالطبع سنجد عدة أسئلة قد ظهرت أمامنا وأهمها من هو المسؤول عن اتخاذ قرار الفصل ومن سيدافع عنه في القانون. لذلك ابتداءًا من الآن يحب معالجة الأسئلة القانونية والأخلاقية التي يطرحها تطور أنظمة الذكاء الاصطناعي في حين أنها لا تزال في مهدها.

مشاركة :