ماذا لو لم يتقيد الروبوت الصحافي بأخلاقيات العمل الإعلامي

  • 8/3/2019
  • 00:00
  • 5
  • 0
  • 0
news-picture

أصبحت صحيفة “تشاينا ساينس ديلي” الصينية آخر من يوظف روبوتا. وقالت الصحيفة الخميس إنها عينت روبوتا يدعى “شياوكي” في وظيفة محرر علمي، لكتابة القصص الإخبارية عن أحدث الاكتشافات التي يتم نشرها في المجلات العلمية الرائدة في العالم. وقامت الصحيفة الصينية المتخصصة بالفعل بنشر الموضوعات التي أعدها المحرر الآلي “شياوكي” على موقعها الإلكتروني على الإنترنت. وفي الصحافة الروبوتية Robot journalism أو صحافة الروبو Robo journalism، أو الصحافة المؤتمتة Automated journalism والمعروفة أيضًا باسم الصحافة الخوارزمية Algorithmic journalism تنتج الأخبار بواسطة برامج الذكاء الاصطناعي. وشهد استخدام الروبوتات الصحافية في العقدين الأخيرين اندفاعا كبيرا، وبحسب الشركة المصنعة لأول روبوت صحافي Narrative Science فإن العمل يجري لتطوير الروبوت لمنافسة العنصر البشري ليس في جمع المعلومات والبيانات فقط وصياغتها بطريقة السرد الإخباري وإنما لإنتاج قصصٍ أكثر تعاطفًا وتقارير اقتصادية تتجاوز العشرين صفحة. وتطورت الروبوتات الحديثة من خلال تعزيز قدراتها البرمجية واستخدام الخوارزميات لإنتاج الأخبار من البيانات المنظمة دونما أي تدخل بشري. واخترقت الأتمتة بقوة المؤسسات الإخبارية العالمية ونجحت في إنتاج الآلاف من القصص الإخبارية دون تدخل بشري بدءًا من جمع المعلومات وتصنيفها ومن ثم تحريرها ونشرها، الأمر الذي يُشكل خطرًا على مستقبل الصحافيين إذا ما اتجهت المؤسسات الإعلامية إلى التخلي عن العنصر البشري لصالح الروبوت.ومن منظور تجاري، يعد الاعتماد على الروبوت أمرا غير مكلف إضافة إلى أن المذيع الآلي لا يطلب علاوات على خدمات إضافية. وتمثل صناعة الروبوت الصحافي تحديا حقيقيا لمعظم الوظائف في المؤسسات الإعلامية سواء المتعلقة بجمع البيانات السريعة من المحادثات والبريد الإلكتروني ووسائل التواصل الاجتماعي أو الأدوار المتعلقة بعملية النشر والمتابعة، الأمر الذي يُحتم على الصحافيين العمل على تطوير مهاراتهم للتأقلم مع البيئة الجديدة ليس فقط على مستوى الشكل وإنما المحتوى أيضًا والعمل على الاستفادة من الروبوت في الجوانب التي تتطلب تركيزًا أعلى من حيث دقة المعلومات المقدمة. ويرى أليكسيس أوهانيان، المؤسس المشارك لموقع ريديت (Reddit) المتخصص بالأخبار على شبكة الإنترنت بأن الروبوت الصحافي بإمكانه كتابة الخبر العادي ذي المعلومات المحددة سلفًا كأخبار الرياضة والمال والاقتصاد، بينما الأخبار الإنسانية والقصص تكون نسبة إتقانه لها أقل كونها تحتاج إلى عمليات استكشاف وتقص ملحوظة يختص بها العقل البشري الذي يلتقط التفاصيل التي تهم الناس، لافتًا إلى أن الروبوت الصحافي منح الصحافيين وقتًا أوفر للتوجه نحو مهمات أخرى لا يستطيع هو القيام بها، كما أنه نبّه مؤسسات تعليم الصحافة والإعلام إلى بناء برامج أكاديمية تجمع بين التكنولوجيا والإعلام للخروج بنتائج أشمل وأكثر دقة، إذ ستُحفز الخوارزميات الصحافيين على تطوير قدراتهم البشرية من الذكاء العاطفي والاجتماعي، والفضول، والأصالة، والتواضع، والتعاطف، والقدرة على الاستماع بشكل أفضل، وتحقيق أعلى قدر من التعاون للخروج بنتيجة أفضل دائمًا. ومنذ انتشارها في العقدين الأخيرين من القرن العشرين واجهت صحافة الروبوت بعض التحديات من النواحي المهنية والأخلاقية، وقد أمكن اكتشاف هذه التحديات على مستويات متباينة من بينها مستوى البحث عن البيانات، فضلًا عن أصالة الخوارزميات المستخدمة وموضوعيتها ومستوى شفافيتها، وطرق استخدام البيانات، ومدى إساءة الاستخدام، إضافة إلى مستوى القيم والمنطق الذي تضمنته تعليمات البرمجية. وأولى تلك التحديات تمثلت في ما يتعلق بصحة المعلومات المدمجة في برمجيات الذكاء الاصطناعي والتي لا يُمكن التحقق من صدقها أو زيفها إذا كانت المعطيات المزودة بها غير رقمية مما يؤدي إلى مخرجات خاطئة في بعض الأحيان، وبحسب الخبراء فإن صحافة الروبوت من شأنها أن تُخل بمبادئ حقوق النشر والاستخدام العادل، خاصة أن برمجيات الذكاء الاصطناعي بإمكانها جلب بيانات من مساحات شاسعة في اختراق غير مقصود لحقوق النشر والتأليف والتوزيع الخاصة بمصادر هذه البيانات الأصلية غير أن التحدي الأكبر الذي يواجه الروبوت في العمل الصحافي هو صعوبة برمجة الأسلوب القصصي. ويبدو هذا التحدي في صالح الصحافي الإنسان مما يُحتم عليه مواصلة فهم وكتابة مواد إخبارية بأسلوب إنساني ذي معنى واضح، بالإضافة إلى متابعة التحقق من صحة المواد التي أعدتها الروبوتات، وتقديم تفسيرات منطقية لها وربطها في سياقها الصحيح، فيما يُشير فريق آخر إلى ضرورة دراسة المعايير الأخلاقية الصحافية التي لم تتغير منذ وقت طويل، ومحاولة ربطها ببرمجيات الذكاء الاصطناعي، لتكون الأخيرة متوافقة مع المعايير المنصوص عليها، خاصة أن بعض البيانات التي تُصاغ من قبل البرمجيات يمكن أن تكون موسومة بأفكار وتحيزات عرقية أو جنسية، بحسب المبرمج البشري الذي أدخل البيانات للعقل الاصطناعي سواء بقصد أو دون قصد من الواضح إذن أن الصحافي الروبوت يقع في أخطاء تحريرية مثله مثل الصحافي البشري، وإن حدث وأن ارتكب الصحافي الافتراضي خطأ يتعلق بالتشهير مثلا، فمن الصعب تحديد المسؤولية القانونية في هذه الحالة. وأثار خبراء هذه الحيثية، إذ أجمع الكثير منهم على ضرورة تحديد المسؤوليات في حالة وقوع خطأ صحافي يمس بشرف أو بسمعة شخص ما. وتؤكد الخبيرة في القانون، وعميدة كلية الحقوق بجامعة ميزوري، ليريسا ليدزكي أن تحديد المسؤولية القانونية مع روبوت صحافي يقوم على خوارزميات، صعب للغاية. ويقوم رأي ليدزكي على واقع علمي، فبالرغم من أن مبرمج الروبوت عالم بشري إلا أنه لا يستطيع التنبؤ بجميع ما قد يكتبه هذا الصحافي بخصوص أي موضوع أو شخصية. وتتنبأ المختصة نفسها بحل وشيك لهذه المعضلة، على أساس “التراكم المعرفي الذي ستفرزه حتما التجربة على مر السنين الآتية”. لكن الأستاذة المساعدة في جامعة تكساس في أوستن، إيمي كريستين ساندرز، تقول إن بالإمكان تحديد المسؤوليات مسبقا عن طريق حسن اختيار المبرمجين. وقالت “على المنظمات الإخبارية أن تكون حريصة حقا بشأن من تقوم بتعيينهم للمشاركة في هذا النوع من مجالات تطوير التكنولوجيا”. وساندرز واحدة من ثلاثة باحثين شاركوا في تأليف دراسة حديثة تسلط الضوء على الطريقة المعقدة لتحديد الخطأ عندما يتم اتهام روبوت بارتكاب التشهير، ومع ذلك، فهي تعتقد أن هذه الحالات مرتبطة بمن برمج هذه الآلات. ويبرز آخرون ضرورة عدم تتبع خطى المبرمجين لتحديد المسؤول عن أي خطأ صحافي يتعلق بالتشهير، لأن ذلك يشتت جهود القانونيين ويبعدهم عن المسؤول الحقيقي المتمثل في المؤسسة الإعلامية التي اعتمدت الروبوت وبالتالي “تتحمل المسؤولية الأخلاقية” أمام القانون.

مشاركة :