العرب والاستثمار في أخلاقيات الذكاء الاصطناعي

  • 6/29/2019
  • 00:00
  • 5
  • 0
  • 0
news-picture

بينما بدأ عالمنا العربي في الاستثمار في فرص ووعود الذكاء الاصطناعي، سبقتنا الدول المتقدمة في الاستثمار بالملايين في بحوث أخلاقيات ومخاطر الذكاء الاصطناعي. على سبيل المثال، خلال شهر يونيو الجاري 2019 أعلنت جامعة أكسفورد البريطانية تلقيها منحة بقيمة 150 مليون جنيه إسترليني (188 مليون دولار) من رجل الأعمال الأمريكي ستيفن شوارزمان رئيس شركة بلاكستون الاستثمارية، لتمويل دراسات وأبحاث أخلاقيات الذكاء الاصطناعي والعلوم الإنسانية، من خلال إنشاء مركز ستيفن شوارزمان للعلوم الإنسانية. وسيكون هذا المركز مقرًا لمعهد جديد لدراسة أخلاقيات الذكاء الاصطناعي في جامعة أكسفورد، والذي سيعتمد على قدرات الجامعة العالمية في العلوم الإنسانية، لقيادة دراسة الآثار الأخلاقية للذكاء الاصطناعي وغيرها من تقنيات الحوسبة الجديدة. هذا التبرع السخي يمثل تأييدًا ودعمًا كبيرًا لقيمة وأهمية دراسة أخلاقيات الذكاء الاصطناعي ودور العلوم الإنسانية في ذلك، كما أنه يثير تساؤلاً مهما: هل لدينا استثمارات في أخلاقيات الذكاء الاصطناعي والعلوم الإنسانية؟ تعدّ العلوم الإنسانية والاجتماعية ضرورية للمساعدة في التصدي للتحديات الرئيسية التي يواجهها الذكاء الاصطناعي في عالم اليوم، فمن خلال التحليل الدقيق للمفاهيم، وفهم العوامل الثقافية والاجتماعية المؤثرة على الأفراد والمجتمعات، والتعبير عن القيم ووجهات النظر المختلفة، وإثراء التفكير النقدي، يمكن للعلوم الإنسانية والاجتماعية أن تلعب دورًا مهما وأساسيا في بناء ذكاء اصطناعي مسؤول. يتم حاليا تضمين الذكاء الاصطناعي والروبوتات في سياقات كثيرة ومتنوعة من مجتمعاتنا وفي حياتنا اليومية، فالتطورات في تكنولوجيا الذكاء الاصطناعي سيكون لها القدرة على التأثير في كل جانب من جوانب حياتنا الحديثة تقريبًا، إلا أن ذلك لا يخلو من مخاطر وتحديات، وعلينا أن نتخيل مدى الضرر الذي قد يلحق بالمجتمع إذا تم بناء أو استخدام ذكاء اصطناعي بطريقة غير صحيحة أو غير مسؤولة. فمثلاً التطورات في تكنولوجيا الذكاء الاصطناعي التي تعمل على أتمتة العمل قد تؤدى إلى القضاء على سبل العيش، كما أن الخوارزميات المدربة على البيانات قد تؤدي إلى إدامة أو تفاقم التحيزات وعدم المساواة مثل التمييز القائم على الجنس أو العرق، كما أن أنظمة الذكاء الاصطناعي التي تتطلب ضرورة توافر كميات كبيرة من البيانات الشخصية، كما هو الحال في الرعاية الصحية، من دون تخطيط دقيق قد تقوض الخصوصية. وقد أشرت بالتفصيل إلى بعض تحديات وأخلاقيات الذكاء الاصطناعي والروبوتات في كتابي (بالاشتراك مع الكاتبة والباحثة صفات سلامة)، بعنوان «تحديات عصر الروبوتات وأخلاقياته»، والصادر عن «مركز الإمارات للدراسات والبحوث الاستراتيجية» ضمن سلسلة «دراسات استراتيجية». لهذا بدأت الدول المتقدمة في تخصيص استثمارات ضخمة، لدراسة أخلاقيات الذكاء الاصطناعي والتعرف على المخاطر المحتملة للذكاء الاصطناعي سواء على المدى القريب أو البعيد، من منظور اقتصادي واجتماعي وثقافي، من خلال التركيز على خصوصية البيانات وكيفية إدارتها، وكذلك كيفية تجنب الآثار الضارة للذكاء الاصطناعي على القوى العاملة، ويتم الاستعانة في هذا الشأن بعلماء العلوم الإنسانية كعلم النفس والاجتماع، وذلك لتوجيه القرارات الحكومية المتعلقة بالذكاء الاصطناعي وضمان الاستفادة من الفرص التي توفرها هذه التكنولوجيا، ومن ثم تعزيز الثقة في مجال الذكاء الاصطناعي. الاستثمار مبكرًا في أخلاقيات الذكاء الاصطناعي أصبح ضرورة حتمية جنبًا إلى جنب مع الاستثمار في الفرص والوعود، وذلك لتجنب المخاطر والتحديات المحتملة للذكاء الاصطناعي التي بدأت تلوح في الأفق والتي سبق وحذر منها العديد من العلماء والأكاديميين المتخصصين في مجال الذكاء الاصطناعي والعلوم الإنسانية. فهم الأخلاقيات والمخاطر التي ينطوي عليها الذكاء الاصطناعي يعد جانبًا أساسيا في أي استراتيجية استثمارية متعلقة بهذا المجال، فتركيز وتفكير المستثمرين في المخاطر المحتملة للذكاء الاصطناعي، سوف يسمح لهم بتقديم منتجاتهم بشكل أكثر موثوقية، وسيكون لديهم فرصة أفضل لتحقيق عوائد كبيرة وأرباح أكبر للمساهمين، كما يجب على المستثمرين دائمًا تنفيذ استراتيجيات إدارة المخاطر، وذلك لإدارة وبفعالية المخاطر المرتبطة باستثماراتهم. أصبح هناك ضرورة عاجلة في عالمنا العربي، كإجراءات استباقية للاستثمار في أخلاقيات الذكاء الاصطناعي والاهتمام الجاد بدعم دراسات وبحوث العلوم الإنسانية في الذكاء الاصطناعي، لإثراء ودعم قرارات الحكومات العربية وصنع السياسات، وتحقيق أقصى قدر من الفرص، وضمان التنفيذ الآمن والموثوق والمسؤول لتكنولوجيا الذكاء الاصطناعي على مدى العقود المقبل، فهل نحن فاعلون؟

مشاركة :