أخلاقيات الذكاء الاصطناعي مشروع سعودي للحفاظ على القيم وتحقيق التنمية

  • 8/23/2022
  • 00:00
  • 4
  • 0
  • 0
news-picture

شرعت «الهيئة السعودية للبيانات والذكاء الاصطناعي» في مشروع ضوابط أخلاقيات الذكاء الاصطناعي حرصاً من المملكة على تحقيق رؤيتها وإستراتيجياتها الوطنية المتعلقة باعتماد تقنيات الذكاء الاصطناعي وتشجيع البحث والتطوير والابتكار ورفع الوعي وتعزيز النمو الاقتصادي لتحقيق الازدهار والتنمية. وتم تطوير مبادئ أخلاقيات الذكاء الاصطناعي التي تهدف إلى تعزيز حوكمة البيانات للحد من الآثار السلبية لأنظمة الذكاء الاصطناعي اقتصادياً ونفسياً واجتماعياً، وأيضاً التهديدات الأمنية والسياسية المحتملة. وحددت الهيئة في مسودة المشروع مبادئ أخلاقيات الذكاء الاصطناعي في المملكة بما يتماشى مع المعايير العالمية والقيم الثقافية للمملكة. وتعتمد هذه الضوابط على مبدأ النزاهة والإنصاف عند تصميم أو جمع أو تطوير أو نشر أو استخدام أنظمة الذكاء الاصطناعي، واتخاذ الإجراءات اللازمة للقضاء على التحيز أو التمييز أو الوصم الذي يتعرض له الأفراد أو الجماعات أو الفئات، وقد يحدث التحيز بسبب البيانات أو التمثيل أو الخوارزميات ويمكن أن يؤدي إلى تمييز فئة ضد أخرى. وعند تصميم واختيار وتطوير أنظمة الذكاء الاصطناعي، من الضروري ضمان معايير عادلة ومنصفة وغير متحيزة وموضوعية وشاملة ومتنوعة وممثلة لجميع شرائح المجتمع أو الشرائح المستهدفة منها، ويجب ألا تقتصر وظيفة نظام الذكاء الاصطناعي على مجموعة محددة على أساس الجنس أو العرق أو الدين أو العمر أو غير ذلك.. بالإضافة إلى ذلك، يجب أن تكون المخاطر المحتملة، والفوائد العامة، والغرض من استخدام البيانات الشخصية مبررة ومحددة بشكل واضح ودقيق من قبل الجهة المسؤولة عن نظام الذكاء الاصطناعي، ولضمان تطابق أنظمة الذكاء الاصطناعي القائمة على الإنصاف والشمولية، يجب تدريب أنظمة الذكاء الاصطناعي على البيانات التي يتم تنظيفها من التحيز، كما يجب أن تمثل مجموعات الأقليات المتأثرة، وبناء وتطوير الخوارزميات بطريقة تجعل تكوينها خالياً من التحيز والمغالطات. ضوابط وتعليمات - تعاون فريق التصميم لتحديد الأهداف وكيفية تحقيقها بطريقة فعالة ومحسنة. - يبدأ التصميم بمراعاة النزاهة والإنصاف من بداية دورة حياة نظام الذكاء الاصطناعي. -إبراز جهود تعاونية بين الأعضاء لتحديد الأضرار والفوائد المحتملة والأفراد المتضررين. - اختيار المقاييس في هذه المرحلة من دورة حياة نظام الذكاء الاصطناعي. -تحديد وبصورة منهجية سمات البيانات الشخصية المتعلقة بالأشخاص أو الفئات. - تحديد الحد الذي يكون عنده التقييم عادلاً أو غير عادل، كما يجب تحديد مقاييس تقييم النزاهة التي سيتم تطبيقها على البيانات الحساسة خلال الخطوات المستقبلية. -اتباع أفضل الممارسات في الحصول على البيانات والتعامل معها وتصنيفها وإدارتها. - اعتماد دقة البيانات عند إدارة البيانات وتصنيفها (التوسيم والتعليق والتنظيم) لتجنب إدخال التقديرات البشرية ولمنع التحيز وضمان نزاهة البيانات. - يجب ألا تدرج خصائص البيانات الشخصية المحددة في مرحلة التخطيط والتصميم في بيانات النموذج، كي لا تزيد التحيز الموجود ضدها. - مراعاة النزاهة في التنفيذ عند بناء نظام الذكاء الاصطناعي وتنفيذه. - وضع آليات وبروتوكولات واضحة عند التطبيق الفعلي لنظام الذكاء الاصطناعي. - قياس نزاهة النتائج وأدائها وكيفية تأثيرها على مختلف الأفراد والجماعات. - تقدير ومعالجة المخاطر الناتجة عن تطوير أو استخدام أنظمة الذكاء الاصطناعي. - دمج برمجيات الذكاء الاصطناعي في منتجاتهم أو خدماتهم - يتعين على أنظمة الذكاء الاصطناعي التي تشكل «مخاطر عالية» على الحقوق الأساسية الخضوع لإجراء تقييمات ما قبل المطابقة وبعدها. -لا يُسمح بأنظمة الذكاء الاصطناعي التي تشكل «خطراً غير مقبول» على سلامة الناس وسبل عيشهم وحقوقهم. - يسمح تقرير العدالة والإنصاف للجهة المسؤولة عن تقنية الذكاء الاصطناعي بتحديد معايير العدالة المستخدمة. - تطوير تقييمات الأثر الأخلاقي لتحديد المجالات التي تحتاج إلى تعديل وإعادة المعايرة . معايير الخصوصية والأمان -يساعد الشركات على تحسين إستراتيجيتها لأمن المعلومات. - توفير أفضل الممارسات بناءً على مجال الشركة ونوعية البيانات التي تحتفظ بها.

مشاركة :