هناك سبب بالغ الوجاهة لكشف أسرار عمالقة وسائل التواصل الاجتماعي. على مدار العقد الماضي، راقبت الحكومات سير عملياتها الديمقراطية وقد تعطلت جراء المعلومات المضللة وخطاب الكراهية المنتشر على مواقع مثل «فيسبوك» التابعة لشركة «ميتا بلاتفورمز إنك»، و«يوتيوب»، و«تويتر». في العامين المقبلين، تعد أوروبا، والمملكة المتحدة تحديداً، قوانين من شأنها كبح جماح المحتوى المزعج الذي سمحت شركات التواصل الاجتماعي بانتشاره على نطاق واسع. كان هناك الكثير من الشكوك حول قدرتها على النظر في خبايا شركات مثل «فيسبوك». الأهم من أي شيء هو أن المنظمين يفتقرون إلى الخبرة الفنية، والقوى العاملة، والرواتب التي تفتخر بها شركات التكنولوجيا الكبرى. ثمة مشكلات فنية أخرى تتمثل في أنه من الصعب فك شفرة أنظمة الذكاء الصناعي التي تستخدمها شركات التكنولوجيا. لكن الرافضين يجب أن يكونوا متفتحين، إذ يجري تطوير تقنيات جديدة من شأنها أن تجعل فحص هذه الأنظمة أسهل. فما يسمى مشكلة الصندوق الأسود للذكاء الصناعي ليست غير قابلة للاختراق كما يعتقد الكثيرون. يدعم «الذكاء الصناعي» غالبية الإجراءات التي نراها على «فيسبوك» و«يوتيوب»، خاصةً أنظمة التوصية التي تصنف المنشورات التي تدخل في ملف الأخبار الخاصة بك، أو مقاطع الفيديو التي يجب أن تشاهدها بعد ذلك - كل هذا بغرض حثك على الاستمرار في مشاهدة المقطع تلو الآخر. تستخدم الملايين من أجزاء البيانات لتدريب برامج الذكاء الصناعي، مما يسمح لها بإجراء تنبؤات مشابهة بشكل فضفاض لتوقعات البشر. الجزء الصعب بالنسبة للمهندسين هو فهم كيف يتخذ الذكاء الصناعي القرار في المقام الأول. ومن هنا جاء مفهوم الصندوق الأسود. تأمل المثالين التاليين: ربما يمكنك في غضون بضعة أجزاء من الألف من الثانية معرفة أي حيوان هو الثعلب وأي حيوان هو الكلب. لكن هل يمكنك أن تشرح كيف تعرف؟ سيجد غالبية الناس صعوبة في توضيح فروق شكل الأنف أو الأذنين أو شكل الرأس في كليهما. لكنهم يعرفون على وجه اليقين صورة الثعلب. هناك مفارقة مماثلة تؤثر على نماذج التعلم الآلي. غالباً ما تقدم الإجابة الصحيحة، لكن مصمميها غالباً لا يستطيعون شرح كيفية القيام بذلك، وإن كان هذا لا يجعلها غامضة تماماً. أظهرت صناعة صغيرة ولكنها متنامية كيفية مراقبة عمل هذه الأنظمة. مهمتها الأكثر انتشاراً هي تحسين أداء نموذج الذكاء الصناعي حيث ترغب الشركات التي تستخدمها أيضاً في التأكد من أن الذكاء الصناعي لديها لا يتخذ قرارات متحيزة، على سبيل المثال، غربلة طلبات التوظيف أو منح القروض. إليك مثال على كيفية عمل إحدى هذه الشركات الناشئة. استخدمت شركة مالية مؤخراً شركة «أبوريا» (Aporia) الإسرائيلية للتحقق من نجاح حملة لجذب الطلاب. وجدت الشركة، التي توظف برمجيات ومراجعين بشريين، أن نظام الذكاء الصناعي الخاص بالشركة كان يرتكب أخطاء بالفعل، ويمنح قروضاً لبعض الشباب الذين لا ينبغي لهم الحصول عليها، أو يحجب قروضاً عن الآخرين بلا داعٍ. وعندما تفحصت الشركة عن كثب، اكتشفت السبب: شكل الطلاب أقل من 1 في المائة من البيانات التي تم تدريب الذكاء الصناعي للشركة عليها. بحسب الرئيس التنفيذي لشركة «أبوريا»، ليران هوسان، فقد جرت المبالغة في سمعة «الصندوق الأسود» للذكاء الصناعي فيما يتعلق بعدم قابليته للاختراق. باستخدام التكنولوجيا المناسبة، يمكنك مبدئياً إلغاء اختيار النماذج اللغوية الشديدة التعقيد التي تدعم شركات الوسائط الاجتماعية، ويرجع ذلك جزئياً إلى أنه في الحوسبة، يمكن تمثيل اللغة من خلال رمز رقمي. إن اكتشاف الكيفية التي قد تنشر بها الخوارزمية خطاب الكراهية، أو تفشل في معالجته، هو بالتأكيد أصعب من اكتشاف الأخطاء في البيانات الرقمية التي تمثل القروض، لكن هذا ممكن. وسيحاول المنظمون الأوروبيون الوصول إلى ذلك. وفقاً لمتحدث باسم المفوضية الأوروبية، سيتطلب قانون الخدمات الرقمية القادم من منصات الإنترنت الخضوع لعمليات تدقيق مرة كل عام لتقييم مدى «خطورة» خوارزمياتها على المواطنين. قد يجبر ذلك الشركات في بعض الأحيان على توفير فرص وصول غير مسبوق إلى المعلومات التي يعتبرها الكثيرون أسراراً تجارية، مثل التعليمات البرمجية وبيانات التدريب وسجلات العمليات. (أكدت المفوضية أن مدققيها سيلتزمون بقواعد السرية). لكن لنفترض أن هيئات المراقبة في أوروبا لم تستطع الخوض في مدونة «فيسبوك»، و«يوتيوب»، ولنفترض أنها لم تتمكن من فحص الخوارزميات التي تحدد مقاطع الفيديو أو المشاركات التي يوصى بها. ولا يزال هناك الكثير يمكن تحقيقه في هذا المسار. في سياق متصل، نشر مانويل ريبيرو، باحث دكتوراه بالمعهد الفيدرالي للتكنولوجيا في لوزان بسويسرا، دراسة في عام 2019 قام فيها هو وزملاؤه بتتبع كيفية تحول بعض زوار «يوتيوب» إلى التطرف من خلال المحتوى اليميني المتطرف. لم يكن الباحثون بحاجة إلى الوصول إلى أي من رموز «يوتيوب» للقيام بذلك. فقد نظر الباحثون ببساطة في التعليقات على الموقع لمعرفة القنوات التي ذهب إليها المستخدمون بمرور الوقت. كان الأمر أشبه بتتبع البصمات الرقمية - عمل شاق لكنه كشف في النهاية كيف تم استدراج شريحة من مستخدمي «يوتيوب» إلى قنوات التفوق الأبيض عن طريق المؤثرين الذين تصرفوا وكأنهم بوابة للإدمان. تعد دراسة ريبيرو جزءاً من مجموعة أوسع من الأبحاث التي تتبعت الآثار الجانبية النفسية لـ«فيسبوك» أو «يوتيوب» من دون الحاجة إلى فهم الخوارزميات الخاصة بهما. ومع تقديم منظورات سطحية نسبياً لكيفية عمل منصات وسائل التواصل الاجتماعي، لا يزال بإمكانهم مساعدة المنظمين في فرض التزامات أوسع على المنصات. ويمكن أن تتراوح ما بين تعيين مسؤولي الامتثال لضمان التزام الشركة بالقواعد، أو إعطاء عينات عشوائية دقيقة للمراجعين حول أنواع المحتوى الذي يدفع الناس نحوه. هذا منظور مختلف تماماً عن السرية التي تمكنت شركات التكنولوجيا من العمل في ظلها حتى الآن. سيشمل المنظور كلاً من التكنولوجيا الجديدة والسياسات الجديدة. وبالنسبة للمنظمين، قد يكون ذلك مزيجاً ناجحاً. * بالاتفاق مع «بلومبرغ»
مشاركة :