أكد خبراء تقنيون أهمية وضع لوائح منظمة لتشجيع التطور المسؤول للذكاء الاصطناعي، مع استمرار إتاحة فرص للتجارب والتطور في المجالات كافة. وأوضحوا أنه مع وجود مميزات كثيرة لتطبيقات الذكاء الاصطناعي والتي شهدناها في مختلف الصناعات والمجالات، تم رصد بعض الأخطار المحتملة المرتبطة بأدواته في حال لم يتم استخدامها بطريقة صحيحة. وقالوا إن تلك التقنيات باتت مصدراً للقلق والمناقشة بين الباحثين والخبراء في هذا المجال، حيث يتم تحديد السبل لتجنب العديد من المخاطر والتحديات المحتملة مثل فقد الوظائف، والخصوصية والأمان، والتحيز والتمييز، وغيرها. وأشاروا إلى أهمية تحقيق التوازن بين التنظيم والابتكار من خلال وضع اللوائح بعناية لتشجيع التطور المسؤول للذكاء الاصطناعي من خلال النهج التعاوني الذي يضم الحكومات وخبراء الصناعة والباحثين والمجتمع المدني. وتقع مسؤولية تنظيم استخدام أدوات الذكاء الاصطناعي عادةً على مجموعة من الكيانات، بما في ذلك الحكومات والهيئات التنظيمية والمنظمات الصناعية والمؤسسات البحثية لمواجهة هذه التحديات وتطوير المبادئ التوجيهية والأطر الأخلاقية لضمان الاستخدام المسؤول والمفيد لتقنيات الذكاء الاصطناعي. تحديات ومن جانبه، قال الدكتور محمد المصلح، أستاذ مساعد في كلية الهندسة والعلوم الفيزيائية، عضو لجنة الذكاء الاصطناعي للتعليم والتعلم – جامعة هيريوت وات دبي، في رده على أسئلة «الاتحاد» إنه مع وجود مميزات كثيرة لتطبيقات الذكاء الاصطناعي والتي شهدناها في مختلف الصناعات والمجالات تم رصد بعض الأخطار المحتملة المرتبطة بأدوات الذكاء الاصطناعي (AI) في حال لم يتم استخدامها بطريقة صحيحة. وأشار إلى أنه من بين أهم التحديات فقد الوظائف، حيث يتمتع الذكاء الاصطناعي بالقدرة على أتمتة المهام والوظائف المختلفة، مما يؤدي إلى زيادة خطورة استبدال القوى العاملة وفقدان الوظائف في مجالات معينة، في حين أنها تخلق فرص عمل جديدة، إلا أن الفترة الانتقالية تكون صعبة للأفراد والمجتمعات التي تعتمد على تلك الوظائف. ولفت إلى أن الخصوصية والأمان تمثل تحدياً آخر نظراً لأن أنظمة الذكاء الاصطناعي تجمع وتحلل كميات كبيرة من البيانات، وهناك خطر متزايد من انتهاكات الخصوصية والثغرات الأمنية إذا لم يتم تأمينها بشكل صحيح، حيث يمكن استغلال أنظمة الذكاء الاصطناعي، مما يؤدي إلى الاختراق وانتهاكات البيانات وإساءة استخدام المعلومات الشخصية. ونوه إلى أن التحيز والتمييز تحديان إضافيان، حيث يتم تدريب أنظمة الذكاء الاصطناعي على كميات هائلة من البيانات، وإذا كانت تلك البيانات تحتوي على تحيزات أو تعكس تحيزات مجتمعية، فيمكن لنماذج الذكاء الاصطناعي أن تتعلم عن غير قصد وتتمادى في هذه التحيزات ما يمكن أن يؤدي هذا إلى نتائج تمييزية في مجالات مثل التوظيف والإقراض والعدالة الجنائية. وأوضح أن هذه المخاطر ليست متأصلة في الذكاء الاصطناعي نفسه ولكنها تنشأ من كيفية تطوير الذكاء الاصطناعي ونشره وتنظيمه. حاجة ملحة وأشار المصلح إلى أنه من المهم تحقيق التوازن بين استخدام أدوات الذكاء الاصطناعي بطريقة فعالة لتجنب «خنق الابتكار»، ويجب وضع اللوائح بعناية لتشجيع التطور المسؤول للذكاء الاصطناعي، مع إتاحة فرص للتجارب والتطور في المجالات كافة. وأضاف: «يساعد التنظيم على ضمان تطوير تقنيات الذكاء الاصطناعي واستخدامها بطريقة أخلاقية، مع احترام حقوق الإنسان الأساسية والخصوصية والإنصاف». ويوفر هذا إطاراً لمعالجة التحيزات المحتملة والتمييز والمخاوف الأخلاقية الأخرى المرتبطة بنشر الذكاء الاصطناعي، بالإضافة إلى المميزات الأخرى، حيث إن تنظيم استخدام الذكاء الاصطناعي يساعد على وضع معايير السلامة للتخفيف من المخاطر وضمان موثوقية النظام وحماية السلامة العامة، كما أنه يساعد في منع الاستخدام الضار لتقنيات الذكاء الاصطناعي. نهج تعاوني وقال المصلح «تقع مسؤولية تنظيم استخدام أدوات الذكاء الاصطناعي عادةً على مجموعة من الكيانات، بما في ذلك الحكومات والهيئات التنظيمية والمنظمات الصناعية والمؤسسات البحثية، حيث يعمل الباحثون وصناع السياسات بنشاط لمواجهة هذه التحديات وتطوير المبادئ التوجيهية والأطر الأخلاقية لضمان الاستخدام المسؤول والمفيد لتقنيات الذكاء الاصطناعي». وأوضح أن الجامعات تساهم بدور مهم في تشكيل والتأثير على تنظيم واستخدام الذكاء الاصطناعي الفعال من خلال البحث والتعليم والتعاون مع مختلف أصحاب المصلحة والإرشاد، فإن الجامعات تساهم بطرق عدة لكونها مراكز للبحث والمعرفة، وتجري المؤسسات التعليمية أبحاثاً مكثفة حول تقنيات الذكاء الاصطناعي، وآثارها المجتمعية، والاعتبارات الأخلاقية المرتبطة باستخدامها، ما يساعد صناع القرار والهيئات التنظيمية في تطوير اللوائح والمبادئ التوجيهية الفعالة. وقال: «تلعب الجامعات دوراً حاسماً في تثقيف الجيل القادم من محترفي الذكاء الاصطناعي وصانعي السياسات من خلال تقديم برامج ودورات في أخلاقيات الذكاء الاصطناعي والقانون والسياسة والتنظيم، يمكن للجامعات تزويد الطلاب بالمعرفة والمهارات اللازمة للتنقل في المشهد المتطور لتنظيم الذكاء الاصطناعي، ويساعد ذلك في تطوير قوة عاملة تفهم الآثار الأخلاقية والمجتمعية للذكاء الاصطناعي، ويمكن أن تساهم في تطوير الذكاء الاصطناعي وحوكمته بشكل مسؤول». رائف الغوري: تطوير السياسات التنظيمية للذكاء الاصطناعي عملية مستمرة ومستدامة أكد المهندس رائف الغوري، مدرب في مجال الذكاء الاصطناعي وأخلاقياته، أن الاستخدام غير المسؤول أو غير الأخلاقي لأدوات الذكاء الاصطناعي يشكل أحد مصادر مخاطره، وذلك بسبب انخفاض مستوى الوعي الأخلاقي لدى بعض المستخدمين. وأوضح أن أدوات الذكاء الاصطناعي هي أدوات عصرية حديثة تعتمد على نماذج لغوية كبيرة، تشتمل على كمية واسعة من المعارف والعلوم الإنسانية لمختلف شعوب الكرة الأرضية، من أجل أن تقدم للمستخدم المعلومات اللازمة لتلبية حاجاتك العلمية أو المهنية أو الاقتصادية أو القانونية أو الاجتماعية، حسب مجال اختصاصه. وقال: «تعمل الشركات التقنية المطورة لأدوات الذكاء الاصطناعي على ضبط ردود وأجوبة أدوات الدردشة، بحيث لا تتعرض لمواضيع العنصرية والتحيز والتمييز بين الأفراد والمجتمعات، وتمتاز أدوات الذكاء الاصطناعي بسرعة تطورها الهائلة، وخير مثال على ذلك تقديم شركة (جوجل) لأداة الدردشة (بارد) في أحدث إصدارتها الداعمة للغة العربية وبأكثر من 16 لهجة عربية محلية، ما يجعل تجربة المستخدم العربي أكثر يسراً وسهولة من تجربته السابقة مع (شات جي بي تي) من شركة (أوبن أيه آي)». وبالحديث عن أخلاقيات الذكاء الاصطناعي، أصدرت الصين أول وثيقة تنظيمية لسياسة أخلاقيات الذكاء الاصطناعي التوليدي، وذلك يوم 14 يوليو 2023 في خطوة استباقية لتنظيم استخدامه قبل أن يفلت الأمر من زمامه، وشملت اللوائح التنظيمية لهذه الوثيقة جميع خدمات محتوى الذكاء الاصطناعي التوليدي (Generative)، بما فيها النصوص والصور والصوت والفيديو المقدمة لجمهور المستخدمين، ولم تتعرض الوثيقة للخدمات المستخدمة في الصناعات أو في الاستخدامات الداخلية للشركات، وستدخل لوائح هذه السياسة حيز التنفيذ في 15 أغسطس 2023. وضمن توجيهات هذه الوثيقة الطلب من مقدمي خدمات الذكاء الاصطناعي تجنب التمييز على أساس العرق أو الدين أو البلد أو المنطقة أو الجنس أو العمر أو المهنة أو الصحة، إلى جانب احترام حقوق الملكية الفكرية. وقال إن عملية وضع وتطوير السياسات الأخلاقية والتنظيمية لأنظمة الذكاء الاصطناعي ومنتجاته وخدماته، يجب أن تكون عملية مستمرة ومستدامة، ومن قبل الجهات التي تعمل عليها مثل جهات البحث والشركات التقنية، ومن قبل الجهات الناظمة القانونية والتشريعية التي تضمن حقوق الأفراد والمجتمعات بالحصول على هذه الخدمات بالشكل الأمثل. وأضاف: «إذا أردنا تحسين نتائج أدوات الذكاء الاصطناعي باللغة العربية، فعلينا قدر المستطاع أن نكتب بلغة فصيحة، لأنها الأكثر استخداماً ومرجعية في مواضيع العلم والعمل والأدب والمجتمع أكثر من اللهجات العامية، وذلك من خلال كتابتنا للمقالات أو المنشورات على منصات التواصل الاجتماعي أو أثناء الدردشة، لأن مخرجات أدوات الذكاء الاصطناعي تعتمد على المحتوى الذي نقدمه لها، سواء بالفصحى أم بالعامية». أخبار ذات صلة الإمارات شريك رئيسي في جهود مكافحة الهجرة غير النظامية خبراء لـ «الاتحاد»: «COP28» فرصة لمواجهة «الهجرة المناخية» تغيرات جذرية ومن ناحيته، قال جيوتي لالشانداني، نائب الرئيس، المدير العام لمجموعة مؤسسة البيانات الدولية في منطقة الشرق الأوسط وتركيا وأفريقيا، إن تقنيات الذكاء، بما في ذلك «شات جي بي تي» ChatGPT ستحدث تغيرات جذرية بالعديد من القطاعات، لاسيما القطاعات التعليمية والمهنية مثل «الإعلام والمحاماة». وأشار إلى أن تأثير تقنيات الذكاء الاصطناعي سيتضاعف مع مرور الوقت، حيث تتطور بشكل سريع ومتلاحق نتيجة استفادتها من الاستخدام المكثف، وهو الأمر الذي ينضوي على الكثير من الفرص والتحديات. وأوضح أنه يمكن توظيف التقنية الجديدة في زيادة الإنتاجية، وتنفيذ المهام المتكررة على نحو فوري في العديد من القطاعات مثل التجزئة والمصارف، إلا أنها تفرض تحديات لا يستهان بها في قطاعات أخرى مثل التعليم والمحاماة والإعلام. وأشار إلى أن فرض أطر أخلاقية للتقنية الجديدة، وللذكاء الاصطناعي بشكل عام، يسهم في تحقيق الاستفادة القصوى من مثل هذه التقنيات الجديدة. ابتسام المزروعي: تحقيق التوازن بين الابتكار وحماية حقوق الإنسان قالت الدكتورة ابتسام المزروعي، المدير التنفيذي، كبير الباحثين بالإنابة لوحدة الذكاء الاصطناعي في معهد الابتكار التكنولوجي في أبوظبي: «ما زالت مسألة تنظيم تقنيات الذكاء الاصطناعي تمثل نقاشاً مستمراً يحتاج إلى التحليل والدراسة والاستكشاف الكامل من قبل العديد من الجهات المعنية في مجال الذكاء الاصطناعي من مختلف الأوساط الأكاديمية والحكومية والاقتصادية». وأضافت أنه في حين أن الذكاء الاصطناعي لديه القدرة على تحقيق العديد من الفوائد والتقدم في مختلف القطاعات، إلا أنه يمثل أيضاً تحدياً أخلاقياً واجتماعياً واقتصادياً كبيراً، ويتعين علينا أن نكون قادرين على تحقيق التوازن بين الابتكار وحماية حقوق الإنسان والخصوصية والأمن في الوقت نفسه. وأشارت إلى أنه من الضروري أيضاً أن تركز هذه اللوائح والتنظيمات على جوانب ضمان الشفافية والمساءلة في أنظمة الذكاء الاصطناعي وتعزيز جوانب العدالة وعدم التمييز وحماية الخصوصية وأمن البيانات وإنشاء آليات لمعالجة التأثير الاجتماعي للذكاء الاصطناعي، وفي الوقت نفسه من الضروري تجنب الإفراط في التنظيم، ووضع القيود التي ستعيق الإبداع والابتكار. وقالت إن تعزيز الإطار التنظيمي الاستراتيجي يعد أمراً بالغ الأهمية لتطوير ونشر تقنيات الذكاء الاصطناعي بشكل مسؤول، مع معالجة المخاطر المحتملة المرتبطة بها. وأضافت: «تقع على عاتق الحكومات والجهات المعنية في القطاعات والعلماء والمختصين، مسؤولية إيجاد الحلول المثلى لتنظيم تقنيات الذكاء الاصطناعي التي تتضمن عملية ديناميكية ومستمرة للتقييم والتعديل والتعلم من التطبيقات الواقعية. وفي نهاية المطاف لا بد من إعطاء الأولوية للقيم ومبادئ الإنسانية وفائدة المجتمع والبشرية».
مشاركة :