يستخدم فيسبوك الذكاء الاصطناعي لمسح منشورات المستخدمين، بحثاً عن علاماتٍ لرصد المستخدمين ذوي الميول الانتحارية، وعندما يجد الموقع شخصاً يُحتمل أن يكون عُرضةً للخطر، تضع الشركة تنبيهاً على المنشور المعني، حتى يتمكن موظفون بالشركة من الاستجابة للتنبيه. ويكون ذلك عن طريق إرسال مصادر للمستخدم بشأن الصحة العقلية، أو في الحالات الأكثر خطراً يتواصلون مع المستجيبين الأوائل بجهات الطوارئ، الذين يحاولون حينها العثور على المستخدم صاحب المنشور، بحسب ما نشره موقع الأميركي. وتقول الشركة إنَّ البرنامج جرى تدريبه على منشوراتٍ ورسائل نبَّه لها مستخدمون في السابق، وأنَّه يبحث عن إشاراتٍ دلالية مثل تعليقاتٍ على المنشورات تسأل أصحابها "هل أنت بخير؟" أو "هل يمكنني المساعدة؟". وتفحص تلك التكنولوجيا أيضاً ما يُنشَر عبر خاصية البث الحي على موقع فيسبوك، وتحدد الأجزاء من مقاطع الفيديو التي تحظى بعددٍ أكبر من المعتاد من التعليقات أو ردود الفعل أو البلاغات من المستخدمين. وسيكون العمل الأهم في تلك العملية من نصيب الموظفين، حيث سيُقيِّمون كل حالةٍ يُنبِّه لها برنامج الذكاء الاصطناعي، ويحددون طريقة الاستجابة لها. ورغم أنَّ العنصر البشري لا يمكن التغاضي عنه في تلك العملية، فإنَّ الدراسات تُرجح أن الذكاء الاصطناعي يمكن أن يكون أداةً مفيدة في تحديد مشكلات الصحة العقلية بنسبة بين 80 - 90%. وقد اختبر موقع فيسبوك الأداة لعدة أشهر في الولايات المتحدة الأميركية، لكنَّه طرح الآن البرنامج في عدة دولٍ أخرى. هذا، وقال مارك زوكربيرغ، مؤسس موقع فيسبوك والمدير التنفيذي للشركة في منشورٍ على صفحته الشخصية على الموقع، إنَّه كان يأمل في أن تُذَّكِر تلك الأداة الأشخاص بأنَّ الذكاء الاصطناعي "يساعد في إنقاذ حياة الناس اليوم". مضيفاً أنَّ البرنامج ساعد فيسبوك خلال الشهر الماضي وحده على إحالة أكثر من مائة حالة لجهات الطوارئ. وكتب زوكربيرغ في المنشور: "إذا كان بمقدورنا استخدام الذكاء الاصطناعي لمساعدة الناس بأن يكونوا متواجدين من أجل عائلاتهم وأصدقائهم، فهذه خطوة مهمة وإيجابية للأمام". رغم ذلك لم يوفِّر موقع فيسبوك الكثيرَ من التفاصيل عن الطريقة التي تحدد من خلالها الأداة كون شخص ما في خطر، بحسب موقع الأميركي.ماذا عن الخصوصية؟ ربما سيشعر البعض أيضاً بالقلق بشأن الآثار المترتبة على الخصوصية، إذ سيفحص موقع فيسبوك -الذي تعاون سابقاً مع وكالات مراقبة مثل وكالة الأمن القومي الأميركية- بياناتهم لإجراء تقييماتٍ دقيقة. لكن أليكس ستاموس، رئيس قطاع الأمن بفيسبوك ردَّ على تلك المخاوف في تغريدةٍ على حسابه على تويتر قائلاً، إنَّ "الاستخدام المروع والمخيف والشرير للذكاء الاصطناعي سيمثل خطراً للأبد"، ولهذا السبب من المهم تقدير أهمية "استخدام البيانات مقابل المنفعة". The creepy/scary/malicious use of AI will be a risk forever, which is why its important to set good norms today around weighing data use versus utility and be thoughtful about bias creeping in. Also, Guy Rosen and team are amazing, great opportunity for ML engs to have impact. — Alex Stamos (@alexstamos) جدير بالذكر أن لن تكون نشطة في أيٍّ من دول الاتحاد الأوروبي، حيثُ تمنع قوانين حماية المعلومات هناك الشركات من تصنيف المستخدمين بهذه الطريقة.
مشاركة :