الدلائل التي تشير إلى أن البشر لا يخلون من رواسب التمييز العرقي أو العنصري من حولنا كثيرة، ولكن يبدو أن الآلات أيضا ورثت هذه الميول عن البشر، وأن عدم دقة البيانات المُجمعَة في أنظمة محاكاة القدرات الذهنية البشرية يتسبب وفق باحثين في عنصريتها وتحيزها. لندن - وقعت أنظمة الذكاء الاصطناعي الخاصة ببرامج الصحافة التي تقدمها مايكروسوفت عبر منصتها الإخبارية في أزمة نشر محتوى إخباري أشعل أزمة عنصرية بين المتابعين. وكشف تقرير لـ صحيفة الغارديان البريطانية أن النظام الاصطناعي الخاص بمايكروسوفت نشر خبرا عن أحد أعضاء فريق، ليتل مكس، الغنائي في بريطانيا، وكان الخبر يخص المطربة جيد ثيرلوول، لكن النظام التقني وبشكل خاطئ نشر مع الخبر صورة لأحد أعضاء الفريق الأخريات وهي، لي آن بينيك، وذلك لأن كلاهما من أصحاب البشرة السمراء، وقد عجز النظام التقني عن التفرقة بينهما بشكل صحيح. وكشف التقرير عن استياء عضو الفريق المنشور عنها الخبر، حيث قالت إن خطأ الصورة مرتبط بمزحة عنصرية تستخدم ضد الفريق بالفعل، بسبب أنهم من أصحاب البشرة السمراء، وقول إنهم يشبهون بعضهم البعض. وصححت المنصة ذلك الخطأ ولكن بعد أن أثار حالة من الجدل بين المستخدمين ومتابعي الفريق الغنائي البريطاني. ميول نازية شركات التكنولوجيا قد تسقط في فخ العنصرية والتحيّز شركات التكنولوجيا قد تسقط في فخ العنصرية والتحيّز قامت شركة مايكروسوفت خلال شهر مارس بإصدار “تشاتبوت” يتمتع بخصائص الذكاء الاصطناعي، يدعى “تاي”، وتوصيله بموقع تويتر، إلا أن الأمور سرعان ما اتخّذت منحى كارثيا كان مُتوقّعا منذ البداية. ففي غضون 24 ساعة، أخذ البوت يطلق عبارات غلبت عليها العنصرية والميول النازية. في الواقع، التقط البوت أغلب هذه العبارات إثر دمجه لمختلف الأساليب التي اعتمدها رواد تويتر الذين تفاعلوا معه. وكانت مايكروسوفت قد أعلنت خلال فترة سابقة عن استبدال 70 من فريقها الصحافي ببرامج ذكاء اصطناعي يمكنها القيام بكافة المهام التي يقوم بها الصحافيون، حتى وقعت هذه الأزمة بعد مرور الأسبوع الأول من تطبيق البرنامج. وقضية العنصرية في تطبيقات الذكاء الاصطناعي ليست بالأمر الجديد، فقد سبق أن رصد باحثون في معهد ماساتشوستس للتكنولوجيا عام 2018 عنصرية وتحيزا في أنظمة الذكاء، أرجعوها للطريقة التي تجمع من خلالها التقنية البيانات. ودرس الباحثون مجموعة من الأنظمة، فوجدوا أن العديد منها أظهر تحيزا صادما، ثم طوروا نظاما يساعدهم على التأكد من أن أنظمتهم أقل تحيزا. وقالت كبيرة الباحثين، إيرين تشن، وهي طالبة دكتوراه ساهمت في كتابة الورقة البحثية مع البروفيسور ديفيد سونتاج “إن علماء الكمبيوتر يسارعون في كثير من الأحيان إلى القول إن الطريقة التي تجعل هذه الأنظمة أقل انحيازا، هي ببساطة تصميم خوارزميات أفضل”. واستطردت موضحة “تظهر الأبحاث أنه يمكنك في كثير من الأحيان إحداث فرق أكبر مع بيانات أفضل”. وفي أحد الأمثلة، درس فريق البحث نظام التنبؤ بالدخل، فوجد أنه من المرجح أن يُساء تصنيف الموظفات على أساس دخلهن المنخفض، والموظفين على أنهم من ذوي الدخل المرتفع. ويقول سونتاج “إننا نعتبر هذا بمثابة صندوق أدوات لمساعدة مهندسي التعلم الآلي على معرفة الأسئلة التي يجب طرحها في بياناتهم، من أجل تشخيص سبب قيام الأنظمة بإجراء تنبؤات غير عادلة”. ووجد الباحثون أنهم إذا قاموا بزيادة مجموعة البيانات الدقيقة، فإن تلك الأخطاء ستقل بنسبة 40 في المئة. وتقول “تشن” إن واحدة من أكبر المفاهيم الخاطئة، تتمثل في أن زيادة البيانات (بغض النظر عن الدقة) تكون دائما أفضل. تحيز بشري يذكر أن أنظمة الذكاء الاصطناعي المعتمدة في تطبيقات التعرف على الوجوه في فيسبوك وقعت سابقا في أخطاء تسببت في اتهام القائمين عليها بالعنصرية ضد السود. ومؤخرا تعرّض تطبيق للذكاء الاصطناعي يعمل على توضيح الصور لانتقادات واسعة، بعد أن قام بتحويل صورة للرئيس الأميركي السابق باراك أوباما إلى رجل أبيض. وتشمل الأمثلة الأخرى النائبة الأميركية ألكسندريا أوكاسيو كورتيز والممثلة لوسي ليو، حيث قام البرنامج أيضا بتحويل وجهيهما لتبدو بشرتهما بيضاء. ويعتمد البرنامج على أداة للذكاء الاصطناعي طورت في جامعة ديوك، والتي تبحث من خلال الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي لوجوه عالية الدقة، لتطابق تلك التي تبدو مشابهة للصور المدخلة عند ضغطها إلى نفس الحجم. واستخدم فريق جامعة ديوك أداة للتعلم الآلي مع شبكتين عصبيتين، واحدة تطور الوجوه البشرية التي يخلقها الذكاء الاصطناعي وتحاكي تلك التي تم تدريبها عليها، والأخرى تأخذ هذه النتائج وتقرر ما إذا كانت مقنعة بما يكفي لتكون مشابهة للحقيقة. وتفاخرت جامعة ديوك بأن نظامها قادر على تحويل صورة 16 × 16 بكسل إلى 1024 × 1024 بكسل في بضع ثوان، وهو ما يعادل 64 ضعف الدقة الأصلية، بحسب صحيفة ديلي ميل البريطانية. وقام مستخدم لتويتر بمشاركة البرنامج، وبعد يوم واحد، اكتشف المستخدمون أن الأداة لم تكن دقيقة عندما يتعلق الأمر بمعالجة الوجوه السمراء. ويعزى هذا الفشل إلى البيانات المستخدمة لتدريب الذكاء الاصطناعي، فإذا كان هناك نقص في التنوع بالصور التي يتم إدخالها إلى خوارزمية التعلم الآلي، فلن يتمكن البرنامج من العمل بشكل صحيح. لسوء الحظ، أثبتت أبحاث جديدة أن ثلة من مستخدمي موقع تويتر لا يمثلون وحدهم مصدرا لتعلم مفردات تنم عن العنصرية بالنسبة لأجهزة الذكاء الاصطناعي. ففي الحقيقة، من الممكن أن يتبنّى أي برنامج ذو ذكاء اصطناعي، أثناء تعلّمه للغة البشر، المواقف المنحازة ذاتها التي يتخذها الإنسان. وفي سياق آخر، أجرى الباحثون تجارب على نظام التعلم الآلي الذي يُستخدم على نطاق واسع والذي يُطلق عليه اسم “غلوف”. وعلى خلفية هذه الأبحاث، اكتشف العلماء أن كل سلوك بشري متحيز قاموا باختباره قد تكرس بدوره في صلب النظام الاصطناعي. من المثير للاهتمام أنه حتّى أجهزة الذكاء الاصطناعي التي تم “تدريبها” على نصوص كان من المفترض أنها محايدة، على غرار تلك التي تظهر في موقع “ويكيبيديا” أو المقالات الإخبارية، جاءت لتعكس التحيّز البشري المشترك. وفي هذا الصدد، صرّحت الباحثة في علوم الكمبيوتر في جامعة برينستون، أيلين كالسكان، لموقع “لايف ساينس” أنه “كان من المدهش أن نرى جميع النتائج التي تم تضمينها داخل هذه النماذج، ومن المثير للاهتمام أنه حتّى أجهزة الذكاء الاصطناعي التي تم ‘تدريبها’ على نصوص كان من المفترض أنها محايدة، على غرار تلك التي تظهر في موقع “ويكيبيديا” أو المقالات الإخبارية، جاءت لتعكس التحيّز البشري المشترك”. في واقع الأمر، يُستخدم “غلوف” كأداة لاستنباط تداعي المعاني في النصوص، التي تعدّ في حالة الذكاء الاصطناعي بمثابة مجموعة نصوص أو ما يعرف “بالذخيرة”، التي يتم تجميعها من الشبكة العنكبوتية العالمية. ومن المثير للاهتمام أن علماء النفس قد اكتشفوا منذ فترة طويلة أن الدماغ البشري يخلق الترابط بين الكلمات على أساس المعاني الكامنة وراءها. ومن هذا المنطلق، لسائل أن يسأل: هل ينشئ الأشخاص هذه الارتباطات لامتلاكهم تحيّزا اجتماعيا متجذّرا وخارجا عن نطاق إدراكهم؟ أو هل أنهم يتشرّبون الانحياز من اللغة في حد ذاتها، خاصة وأن الكلمات السلبية مقترنة بشكل وثيق بالأقليات العرقية، والمسنين وغيرهم من المجموعات المهمّشة؟ لا توجد طرق سهلة المبرمجون قد يأمرون النظام أحيانا بتجاهل صور نمطية محددة بشكل تلقائي من الممكن أن يتبنّى أي برنامج ذو ذكاء اصطناعي، أثناء تعلّمه للغة البشر، المواقف المنحازة ذاتها التي يتخذها الإنسان نجحت أيلين كالسكان برفقة زملائها في تطوير “اختبار الارتباط الضمني” لأجهزة الكمبيوتر، حيث أطلقوا عليه اسم “دبليو.إي.أي. تي”، في إشارة إلى “اختبار ترابط تضمين الكلمات”. وقد قام هذا الاختبار بقياس مدى ترابط الكلمات بالاعتماد على ما تقدمه أداة “غلوف” من بيانات، وذلك مثلما ما يقيس “اختبار الارتباط الضمني” مدى ترابط الكلمات داخل الدماغ البشري. في المقابل، أثارت نتائج أخرى قلق الباحثين بصفة أكبر وذلك حين أظهرت الأداة أسماء الأميركيين من أصل أوروبي على أنها أكثر جاذبية من أسماء الأميركيين من أصل أفريقي. وربطت الأداة بسهولة بالغة بين أسماء الذكور مع كلمات ذات صلة مهنية، فيما ارتبطت أسماء الإناث مع كلمات ذات معنى عائلي. ومن جانب آخر، نسبت الرياضيات والعلوم للرجال، في حين ارتبطت النساء بالفنون. وعلى صعيد آخر، أشارت الأداة إلى أن الأسماء التي اقترنت بكبار السن كانت غير لطيفة مقارنة بأسماء الشباب. وفي هذا الإطار، صرّحت أيلين كالسكان قائلة “لقد فوجئنا حقا من قدرتنا على تكرار جميع تجارب ‘اختبار الارتباط الضمني’ التي تم القيام بها في الماضي من قبل الملايين من الأشخاص”. وفي السياق ذاته، أوردت أيلين كالسكان أن الحفاظ على الدقة أثناء برمجة أجهزة الذكاء الاصطناعي على فهم مسائل “الإنصاف” يشكل تحديا كبيرا، كما “أننا لا نعتقد أن تغييب جانب الانحياز من شأنه أن يتكفل بحل هذه المشاكل، حيث قد يعطّل التمثيل الدقيق للعالم بسبب ذلك”. وأفادت عالمة الكمبيوتر في كلية هارفارد، سوريل فريدلر، أن الدراسة الجديدة حول تحيّز الذكاء الاصطناعي، التي نشرت في مجلة “ساينس” العلمية، لا تعتبر مفاجئة، غير أن هذا لا ينفي أهميتها. وبالتالي، فمن المرجح أن يتسلل التحيز إلى أي ذكاء اصطناعي يتعلم من لغة الإنسان بشكل عام. والجدير بالذكر أن سوريل فريدلر، التي تشارك في مجال ناشئ للأبحاث يطلق عليه اسم “الإنصاف والمساءلة والشفافية في التعلم الآلي”، قد بينت أنه لا توجد طرق سهلة لحل هذه المشاكل. في الوقت ذاته، قد يأمر المبرمجون النظام أحيانا بتجاهل صور نمطية محددة بشكل تلقائي. البرامج التي تنهل من لغة الإنسان تكتسب “تمثيلا دقيقا للغاية عن العالم والثقافة”، حتى وإن كانت تلك الثقافة، على غرار الصور النمطية والأحكام المسبقة، تحمل في طياتها قضايا إشكالية.
مشاركة :