بعد سلسلة أخطاء محرجة، أدركت شركات التكنولوجيا المتقدمة المختصة بتطبيقات الذكاء الاصطناعي أن تعيين عاملين من أجناس وعرقيات مختلفة سيساعدها في حماية سمعتها أمام العملاء، وتحاشي وصم حلولها الحسابية المبتكرة بالانحياز المغرض. مع توسع العالم في استخدام الذكاء الاصطناعي باطراد، لوحظ أن هذه التطبيقات ليست بالذكاء الذي نتوقعه منها عندما يتعلق الأمر بالأعمال الكتابية والشؤون الإدارية، والأمثلة المتاحة لا حصر لها. فقد وضعت إحدى الشركات الكبرى برنامجاً لفحص طلبات المتقدمين لشغل وظائف شاغرة، فإذا بالبرنامج يرفض تلقائياً السير الذاتية المقدمة من غالبية السيدات. كما طورت شركات أخرى حلولاً حسابية (خوارزميات) لتحديد هوية الأفراد عن طريق ما يعرف ببصمة الوجه، فإذا بها تصنف السيدات السمراوات في فئة الرجال !. وكشف التوسع في استخدام هذه التطبيقات الذكية تدريجياً عن أهمية التنوع الجنسي، والعرقي، وسط القوة الحية المفكرة في الشركات: متخصصو البرمجة والتطوير. وتظهر البيانات الإحصائية، الصادرة عن مكتب العمل الأميركي في هذا الصدد، أن شركات التكنولوجيا الأميركية تتوسع فعلياً في توظيف السيدات وأبناء الأقليات، إلا أن وظائف المبرمجين الخاصة بإعداد برامج الذكاء الاصطناعي ما زالت حكراً على العاملين المحترفين الذكور من ذوي البشرة البيضاء. وبتتبع الدواعي المحتملة لأخطاء الخوارزميات المحرجة، لوحظ أن مطوري البرامج ممن يختبرون منتجاتهم يعتمدون في الأغلب الأعم على قواعد بيانات جاهزة وتفتقر إلى تمثيل كاف للنساء ومجموعات الأقليات. فعلى سبيل المثال، شملت إحدى قواعد البيانات أكثر من 74% من الرجال، وبلغت نسبة بيض البشرة بينهم 83%. وعند اختبار الخوارزميات القائمة على مثل هذه القواعد لوحظ أنها تعمل بشكل جيد لأنها اعتمدت على نسبة كبيرة للغاية من أناس يشبهون من وضعوها، ولكنها لا تصلح للاستخدام المطلق وبلا تمييز. وتتفاقم مشكلة النقاط السوداء أو الانحيازات المغرضة غير المقصودة في برامج المنتجات التكنولوجية القائمة على تطبيقات الذكاء الاصطناعي على وجه الخصوص، مما يضر بثقة العملاء ويبدد الأرباح المرجوة لشركات البرمجيات. أما المنافع المنشودة من تصحيح نقاط الضعف القائمة فلا حصر لها. ولكل انتصار ضحايا خاسرون. وأمثلة لخطايا الخوارزميات تعرض شركة «جوجل» في عام 2015، لحملة انتقادات واسعة النطاق بعد تصنيف خدمة تطبيقات الصور صورة لمواطنين أميركيين من أصل أفريقي بوصفهما ذكراً غوريلاً! وسارعت الشركة بالاعتذار عن هذا الخطأ المحرج غير المقصود وصححت البرنامج المستخدم. واكتشفت جوجل أن التطبيق المستخدم تمت تجربته واختباره على قواعد بيانات خاطئة أو على الأقل غير مكتملة. وفي عام 2017، أوقفت شركة «أمازون» تشغيل برنامج لفحص طلبات المتقدمين لشغل وظائف بالشركة آلياً عن طريق تطبيقات الذكاء الاصطناعي، بعد أن رفض البرنامج معظم السير الذاتية للسيدات، أو الطلبات الوارد فيها ذكر مجموعات نسوية. وذكرت متحدثة باسم أمازون لاحقاً أن البرنامج لم يستخدم مطلقاً في فحص طلبات المتقدمين. وفي عام 2018، أظهرت دراسة على ثلاث أدوات إلكترونية لتحديد بصمة الوجه، أن البرامج المستخدمة صنفت نسبة 35% من السيدات السمر كرجال. وتقلصت نسبة الخطأ في هذه البرامج إلى 0.8% فقط في حالة الرجال بيض البشرة. وشملت الدراسة عينة عشوائية من 1270 فرداً، والمزعج في الأمر أن هذه البرامج مماثلة لما تستخدمه الهيئات النظامية الأميركية (وكالات فرض القانون) للإيقاع بالمجرمين المشتبه فيهم، أو للبحث عن الأطفال المفقودين. وبعد تكشف هذه الأخطاء الفادحة، سارعت شركة مايكروسوفت إلى مطالبة الحكومات بتنظيم استخدام تكنولوجيا تطبيقات بصمة الوجه، والدعوة إلى مراجعة النظم القائمة لتقييم مدى دقتها وتحديد أوجه التمييز الممجوجة فيها. فالخوارزميات يمكنها أن تتعلم وتتخذ قرارات من تلقاء ذاتها ودون برمجتها مسبقاً لهذا الغرض، لكونها حلولاً حسابية عمياء في الأساس. وإذا ما نجحت شركات البرمجيات في وضع أيديها على أوجه القصور، وتوظيف نوعيات متنوعة من العاملين، والاعتماد على قواعد أوسع وأكثر دقة للبيانات، فستفتح آفاقاً واسعة من العمل أمامها، وخصوصاً في قطاع الخدمات المالية والبنوك.
مشاركة :