الروبوت الصحافي مصدر فعال للأخبار الكاذبة

  • 1/4/2018
  • 00:00
  • 6
  • 0
  • 0
news-picture

الروبوت الصحافي مصدر فعال للأخبار الكاذبةبناء أجهزة كمبيوتر تفهم اللغة حقا هو مهمة يعتبر بعض الفلاسفة أنها مساوية لما يعني أن تكون إنسانا، أي أن الأمر يستغرق عقودا طويلة، وهذا جوهر التحدي بالنسبة للروبوت الصحافي، الذي يمكن أن ينشئ تقارير كاذبة من خلال تدريبه على المعلومات الحقيقية، وإضافة عناصر كاذبة في المزيج، ليتم اعتمادها باعتبارها موثوقة.العرب  [نُشر في 2018/01/04، العدد: 10859، ص(18)]التجربة ليست مثالية لندن - يزداد الجدل احتداما حول إمكانية الاعتماد على الروبوت الصحافي في إعداد التقارير، ومدى دقة المعلومات والبيانات التي يقدمها مقارنة بالإنسان. ورغم التحمّس لتجربة الروبوت الذي طبع الفترة الماضية، فإن الصحافيين بدأوا يتنفسون الصعداء في ظل الحديث عن تحول الروبوت إلى أحد مصادر الأخبار الكاذبة. وأطلق شون غورلي، الرئيس التنفيذي للشركة الناشئة برايمر، تحذيرا من أن الأنظمة التي تستطيع معالجة وصياغة اللغة آليا سوف تكون محركات ممتازة للأخبار الكاذبة. وسيكون من السهل تعليم هذه الأنظمة إنشاء تقارير كاذبة من خلال تدريبها على المعلومات الحقيقية، وإضافة عناصر كاذبة في المزيج، بحسب ما ذكرت صحيفة فايننشال تايمز. ويمكن أن تنشأ مشكلة أعمق بسبب قيام أنظمة الروبوت بمحاكاة الميول والانحيازات لدى البشر، والكثير منها مشفر ضمن اللغة. فهي مثل جميع أنظمة التعلم الآلي، تعتمد على مجموعة كبيرة من البيانات للتدرب على خوارزميتها. والكمبيوتر الذي يحاول إنشاء نموذج لعالم قائم على تفاعلات مكثفة مع الناس معرض لخطر أن يخزن نفس التحيزات واتجاهات الرأي التي يتبناها الناس، وبالتالي صياغة تقارير وفق أهواء معينة. وقال غورلي إن اكتشاف هذا النوع من التضليل في المعلومات يستند إلى القدرة على تتبع نشأتها والطريقة التي تنتشر بها ضمن الشبكات الاجتماعية، في الوقت الذي يستجيب لها المستخدمون المتنوعون. وأضاف أن “الأخبار الكاذبة لديها إشارة مختلفة، فالنمط الذي تُخلفه الطريقة التي يتشارك بها الناس هذه الأخبار، والطريقة التي تنتشر بها، مختلف عن النمط الذي تخلفه المعلومات الحقيقية”، وأشار إلى أن حياة الناس العملية تنطوي على التعامل مع الكلمة المكتوبة أكثر من التعامل مع الصور المرئية.الأنظمة المتكلمة غالبا ما تتوه عن موضوع المحادثة، أو تفشل في الاستجابة لمعلومات ذات مغزى، أو تسيء فهم المعنى المعقد ووقعت مجموعة بروبوبليكا، المختصة بصحافة التحقيقات، في فخ التحيز الخوارزمي، عندما ادعت السنة الماضية أنها عثرت على تشويهات في البرنامج الذي تستخدمه المحاكم الأميركية لمساعدتها في تقرير إطلاق أو عدم إطلاق سراح السجناء بكفالة. وزعمت أن النظام أظهر تحيزا ضد السود. وفي تجربة أخرى، ساعدت شركتا تويتر وفيسبوك، بمنح روبوتات مكانا لم يكن مخصصا لها من قبل في تغطية أحد المؤتمرات الانتخابية للحزبين الجمهوري والديمقراطي في ولايتي أوهايو وبنسلفانيا بالولايات المتحدة. وكانت الروبوتات تقوم بالمهمة التقليدية للصحافي في التقاط الزاوية الأهم في التصريحات لتعيد كتابتها، ومن ثم إعادة تحريرها من دون أن تغفل تداعيات الحدث وما يحيط به، لتكون القصة جاهزة بعدها للنشر في صحيفتي نيويورك تايمز وواشنطن بوست. إلا أن التجربة لم تكن مثالية حيث اشتكى صحافيون تابعوا المؤتمر من عدم فهم روبوت خصصته قناة “سي أن أن” لطلباتهم، فيما اشتكى صحافيون آخرون (من واشنطن بوست) من أنهم قدموا طلبات إلى روبوت وتلقوا أجوبة عن أسئلة أخرى. وأعطى معهد بوينتر للصحافة تبريرا معقولا حول مهمة الروبوت في كتابة الأخبار بأن الهدف هو “تعديل النصوص المكتوبة لتناسب معايير الكتابة الصحافية، لأن العمل الصحافي يحتاج إلى السرعة والدقة والمعلومات الصادقة”. من جهته تساءل أندرو هيل من صحيفة فايننشال تايمز عما إذا كانت كبرى الشركات في المستقبل قادرة على تحقيق هذا المستوى من الحكمة عندما تتولى الآلات المهام التي تسمح لها ببناء وصقل خبرات العاملين. وقال هيل “قضيت ثلاث سنوات في بناء الثقة والمهارات متدربا على طريقة تحليل الأخبار عن أرباح الشركات. هذا هو بالضبط نوع التقارير الذي تقوم أسوشيتد برس بإنتاجه الآن تلقائيا، في شراكة مع شركة تدعى البصائر الآلية، على نحو مشؤوم بالنسبة لجميع الصحافيين”. واقترح هيل بنوع من الثقة أن يؤتى بأذكى إنسان آلي ليرى بعدها إن كان ما تنتجه تكنولوجيا “البصائر الآلية” يرقى إلى ما كتبه في تحليل الأخبار. ويقول خبراء الاتصال “حين نتعلم كيف نضع أيدينا على جوانب القصور المذكورة وتصحيحها، فإن هذا من شأنه أن يكون ضروريا لضمان ألا تقوم الآلات الذكية بتضخيم جوانب القصور لدى البشر الذين صنعوا هذه الآلات، وقد يؤدي أيضا إلى إنشاء أنظمة قادرة على مساعدة الناس على أن يفهوا بشكل أفضل، جوانب الضعف في نظرتهم هم أنفسهم إلى العالم”. ويرى ديف فيروتشي، خبير الذكاء الاصطناعي الذي قاد تطوير نظام واتسون للذكاء الاصطناعي لدى IBM ، أن الأنظمة التي تتقن الكلام يمكن أن تصطدم سريعا بمشاكل أساسية؛ فهي غالبا ما تتوه عن موضوع المحادثة، أو تسيء فهم المعنى المعقد المشفر في اللغة، أو تفشل في الاستجابة لمعلومات ذات مغزى. وقال فيروتشي إن بناء أجهزة كمبيوتر تفهم اللغة حقا -وهي مهمة يعتبر بعض الفلاسفة أنها مساوية لما يعني أن تكون إنسانا- سوف يستغرق “عقودا كثيرة”. ويقرّ بعض الخبراء بأن اللغة على وشك أن تصبح التحدي الكبير التالي في الذكاء الاصطناعي، حيث قال أندرو نج، أحد رواد أنظمة التعلم العميق في قلب الذكاء الاصطناعي الأكثر تقدما اليوم، “يتوقع أن فهم اللغة هو الآن على أعتاب التحسينات من النوع الذي أحدث ثورة في التعرف على الكلام والصور حتى الآن”. ولا ينبع استنتاجه من أيّ اكتشافات تقنية معينة، كما يقول، بل من القوة “الاجتماعية” التي تحرك الباحثين، فـ”مثل هذا التخصص كان مهملا في الدراسات الأكاديمية ثم أصبح محور تركيز أصحاب الطموح والمنافسة الجدية”.

مشاركة :