يشهد العالم تطورا متسارعا في مجال الذكاء الاصطناعي، وهو يؤثر بشكل كبير في مختلف جوانب الحياة البشرية، وفي الشرق الأوسط، يتزايد الاهتمام بتطبيقات الذكاء الاصطناعي والاستفادة منها في مجالات مثل الصحة والتعليم والتجارة والحكومة الذكية. ومع ذلك، فإن تطور هذه التكنولوجيا يطرح تحديات حول الحوكمة المناسبة لاستخدامها. تعرف حوكمة الذكاء الاصطناعي على أنها الإطار القانوني والأخلاقي والمؤسسي الذي يحدد كيفية تصميم وتطوير واستخدام التكنولوجيا الذكية بشكل آمن ومسؤول، وتهدف حوكمة الذكاء الاصطناعي إلى ضمان تقديم الفوائد المحتملة للمجتمع وتقليل المخاطر والتحديات التي قد تنشأ عن استخدامها. وتؤكد دراسة حديثة على الحاجة الملحة للمؤسسات في الشرق الأوسط إلى الاستثمار في برامج الذكاء الاصطناعي المسؤول، وتوسيع نطاقها لمعالجة الاستخدامات والمخاطر المتزايدة للذكاء الاصطناعي في منطقة تتبنى مسار التحول الرقمي على نحو فريد ومتزايد. وتشمل مكونات برامج الذكاء الاصطناعي المسؤول في الشرق الأوسط المبادئ العامة 34 في المائة، والسياسات 49 في المائة، والحوكمة 76 في المائة، والمراقبة والمتابعة إلى جانب الأدوات والتنفيذ 49 و51 في المائة على التوالي. وتصل نسبة المؤسسات الرائدة في مجال الذكاء الاصطناعي المسؤول إلى 25 في المائة، في حين تتخلف 75 في المائة من المؤسسات عن دعم هذا التوجه، ما يسلط الضوء على الحاجة الملحة إلى مضاعفة جهود معظم المؤسسات في المنطقة للاستثمار في هذا الإطار، وتشير البيانات إلى المزايا التي يوفرها الذكاء الاصطناعي المسؤول لمؤسسات المنطقة، بما في ذلك تحسين المنتجات/الخدمات وتمييز العلامة التجارية بـ43 و27 في المائة، وتعزيز مستويات الاحتفاظ بالعملاء بـ43 في المائة، وتحسين معدلات الربحية على المدى الطويل، وتسريع مسار الابتكار، وتحسين عمليات التوظيف والاحتفاظ بالكفاءات بـ30 و42 و16 في المائة. وتعتمد الأغلبية العظمى التي تبلغ 78 في المائة من المؤسسات التي شملتها الدراسة الاستقصائية العالمية اعتمادا كبيرا على أدوات الذكاء الاصطناعي التي توفرها الجهات الخارجية، ما يعرضها لمجموعة من المخاطر، بما في ذلك الإضرار بسمعتها، وفقدان ثقة العملاء، وتكبد الخسائر المالية، والتعرض للعقوبات التنظيمية، ومواجهة تحديات الامتثال، والخضوع للتقاضي. ومع ذلك، تفشل واحدة من خمس مؤسسات في تقييم مخاطرها على النحو المطلوب عند استخدام أدوات الذكاء الاصطناعي التي تقدمها الجهات الخارجية. أظهرت 38 في المائة فقط من المؤسسات استعدادها للالتزام باللوائح التنظيمية الخاصة بالذكاء الاصطناعي، ما يسلط الضوء على ضرورة تعزيز الوعي والاستعداد لتبني التقنيات الحديثة. كما يتطور المشهد التنظيمي بسرعة تطور الذكاء الاصطناعي نفسها تقريبا، حيث تطبق عديد من اللوائح التنظيمية الجديدة الخاصة بالذكاء الاصطناعي بصورة مستمرة. تعد معظم المؤسسات التي تبلغ 84 في المائة الذكاء الاصطناعي إحدى أهم أولوياتها، وتمثل المؤسسات التي تلتزم بالقوانين والأنظمة ذات الصلة 13 في المائة من المؤسسات الرائدة في مجال الذكاء الاصطناعي المسؤول، مقارنة بالمؤسسات التي لا تلتزم بهذه اللوائح والقوانين. كما أظهرت هذه المؤسسات عددا أقل من حالات فشل الذكاء الاصطناعي مقارنة بنظرائها غير الملتزمة بالمعايير التنظيمية نفسها بنسبة 32 مقابل 38 في المائة. وحدد التقرير الذي أصدره معهد ماساتشوستس للتكنولوجيا بالتعاون مع شركة بوسطن كونسلتينج جروب خمس توصيات للمؤسسات في مسيرتها نحو التبني السريع للذكاء الاصطناعي المسؤول وتجنب المخاطر الكامنة المرتبطة به والتي تتركز في الانتقال بسرعة لاعتماد البرامج الناضجة للذكاء الاصطناعي المسؤول، وتقييم أدوات الجهات الخارجية على نحو صحيح، واتخاذ الإجراءات اللازمة للاستعداد للوائح التنظيمية الناشئة وإشراك الرؤساء التنفيذيين في جهود الذكاء الاصطناعي المسؤول لتحقيق أقصى قدر من النجاح، إلى جانب مضاعفة الجهود والاستثمار في الذكاء الاصطناعي المسؤول. يذكر أن التقرير باني على دراسة استقصائية عالمية شملت 1،240 مشاركا يمثلون مؤسسات تبلغ إيراداتها السنوية ما لا يقل عن 100 مليون دولار على مستوى 59 قطاعا و87 دولة حول العالم.
مشاركة :