في الأسبوع الماضي، ظهرت إشارة نادرة إلى أن النظام الدولي الحالي قادر على اتخاذ قرارات صائبة في بعض الملفات؛ إذ نجحت الأمم المتحدة في اعتماد قرار بالإجماع، يهدف إلى تشجيع حماية البيانات الشخصية، واحترام معايير حقوق الإنسان، ومراقبة المخاطر الناجمة عن استخدامات الذكاء الاصطناعي. بالنظر إلى الإخفاقات السياسية المتتالية التي تعانيها المنظومة الدولية عند مقاربة موضوعات حساسة؛ مثل حرب غزة، أو الحرب الروسية- الأوكرانية، فإن الحصول على هذا الإجماع، الذي شاركت فيه الدول الغربية إلى جانب الصين وروسيا وكوبا، يُعد اختراقاً ونجاحاً كبيراً. ويقتضي الإنصاف القول إن التوافق على إطار حماية من مخاطر الذكاء الاصطناعي المتوقعة هو عمل أقل صعوبة بكثير من حسم الخلافات بشأن النزاعات الدولية المسلحة، أو التصارع على مناطق النفوذ والمصالح الاقتصادية الضخمة، لكن مع ذلك، فإن وجود تلك الدرجة من التوافق، والتصميم على سياسة جماعية تستهدف تهذيب “مخالب” هذا الذكاء، هو شيء جدير بالإشادة. وقد كان لافتاً أن بنود هذا القرار تضمنت مجموعة أساسية من المبادئ التي توجه تطور الذكاء الاصطناعي، وترسي قواعد الاستخدام المسئول لمنتجاته، وتسهل إسهامه في التنمية المستدامة، وتساعد على تقليل الفجوة الرقمية بين الدول المتقدمة والدول النامية، من دون إغفال ضرورة احترام معايير حقوق الإنسان. لم يكن هذا هو العمل الجماعي التنظيمي الأول على المستوى الدولي الذي يظهر استجابة منطقية لتطورات الذكاء الاصطناعي والمخاوف المتصاعدة بشأنه؛ إذ سبق هذا القرار الأممي قرار أوروبي صدر بدرجة كبيرة من التوافق أيضاً في شهر مارس الماضي.وضمن هذا القرار، اعتمد الاتحاد الأوروبي رسمياً قانون الذكاء الاصطناعي، باعتباره أول كتاب قواعد شامل في العالم لهذا النشاط؛ ويُنتظر أن يدخل حيز التنفيذ خلال ثلاثة شهور على أكثر تقدير. تتضافر هاتان الاستجابتان (الأممية والأوروبية)، من خلال الطابع القانوني الإلزامي، لخلق إطار تشريعي مناسب يمكن من خلاله الحد من مخاطر الذكاء الاصطناعي، التي وصفها علماء ونقاد بأنها يمكن أن تقوض العالم في حدها الأقصى، وأنها قد تفتح الباب أمام فناء البشر، في حال خرجت منتجات هذه الذكاء عن السيطرة. ففي شهر مارس من العام الماضي، وقع مئات من الخبراء المتخصصين، الذين كان من بينهم إيلون ماسك، رجل الصناعات التكنولوجية الشهير، عريضة، يطالبون فيها بإيقاف تدريب الذكاء الاصطناعي والأنظمة المتطورة من “تشات جي بي تي4″، لمدة ستة أشهر على الأقل، بداعي ما قد تحدثه تلك الأنظمة من مخاطر، ولإعطاء فرصة مناسبة للخبراء والمستخدمين وأفراد الجمهور، لاختبار تلك التقنيات، وتقصي مدى ملاءمتها وقدرتها على تقديم فائدة ملموسة من دون التورط في أخطاء كبيرة.وبعد أيام قليلة من صدور هذه العريضة، عبر جيفري هينتون، الذي يوصف على نطاق واسع بأنه الأب الروحي للذكاء الاصطناعي، عن ندمه جراء عمله الذي استمر عقودا في تطوير آليات هذا الذكاء غير البشرى.وفي رسالة بعث بها هينتون، قبل نحو عام، إلى “نيويورك تايمز”، في أعقاب تقديم استقالته من شركة “جوجل”، التي تستحوذ على نتاج عمله، وتطوره، وتستثمر فيه، حذر من “أخطار متزايدة ستأتي من عمليات التطوير المتسارعة” في مجال الذكاء الاصطناعي. ولتوضيح فكرته تلك، أكد هينتون أن منتجات الذكاء الاصطناعي تستطيع، عبر التعلم العميق واستخدام الشبكات العصبية المتطورة، أن تتجاوز مستوى المعلومات التي يحتفظ بها الدماغ البشرى الراهن، وأن تطور آليات تفكيرها بشكل مستقل، قد يجعلها أكثر ذكاء من البشر في وقت قريب.إن ظهور الاستجابتين التنظيميتين الأممية والأوروبية للذكاء الاصطناعي كان ضرورة لمواجهة تلك الأخطار المتصاعدة، لكن المخاوف ستظل قائمة بالنظر إلى المنافسة الضارية بين الدول الرئيسية من جانب، وبين شركات التكنولوجيا القائمة على تطوير أدوات هذا الذكاء من جانب آخر.صحيح أن الموافقة الأممية الأخيرة على إقرار إطار تنظيمي للذكاء الاصطناعي حدثت إثر توافق نادر بين عدد من الأقطاب الدولية المؤثرة والمتنافسة، لكن الوصول إلى إطار مناسب يحدث التوازن اللازم بين مزايا استخدام تلك التطبيقات وبين مخاطرها من جانب، وبين مصالح المطورين والمصالح العامة من جانب آخر، سيكون عملاً صعباً وشائكاً. وبينما نحتفي اليوم بانتباه العالم لضرورة تنظيم إطار عمل الذكاء الاصطناعي، ونستبشر بالخطوات الأولى في هذا الصدد، يجب أن نلفت الانتباه إلى أن العالم العربي لم يبدأ بعد في اتخاذ الخطوات اللازمة لمقاربة هذا المجال الخطير.لقد كانت الدول العربية ضمن عديد الدول التي أقرت قرار الأمم المتحدة الخاص بالذكاء الاصطناعي الأسبوع الماضي، لكن هذا لا ينهض وحده دليلاً على أننا بذلنا الجهد المطلوب في هذا الصدد.فكما يجب أن نطور القدرات العربية على تطوير أدوات الذكاء الاصطناعي واستخدامها في مجالات الصحة، والتعليم، والزراعة، والصناعة، والإعلام، علينا أيضاً أن نطور المواكبة التنظيمية والأخلاقية العربية لهذا الذكاء، وهو أمر يستلزم عملاً تشريعياً وتنظيمياً فعالاً. يُشّبه بعض الباحثين والمفكرين تطوير أدوات الذكاء الاصطناعي بما حدث عندما تم اكتشاف الانشطار النووي، وينظرون إلى وجود هذين الاختراقين باعتبار أنهما ينطويان على إمكانية تحقيق الخير كما ينطويان على إمكانية إحداث الدمار الشامل، والأمل أن ينجح العالم في جعل أدوات الذكاء الاصطناعي معولاً للتنمية والتقدم، وليس سلاحاً لتقويض السلام والأمن. ياسر عبدالعزيز – الوطن نيوز كانت هذه تفاصيل خبر استفاقة عالمية في مواجهة مخاطر الذكاء الاصطناعي لهذا اليوم نرجوا بأن نكون قد وفقنا بإعطائك التفاصيل والمعلومات الكاملة ولمتابعة جميع أخبارنا يمكنك الإشتراك في نظام التنبيهات او في احد أنظمتنا المختلفة لتزويدك بكل ما هو جديد. كما تَجْدَرُ الأشاراة بأن الخبر الأصلي قد تم نشرة ومتواجد على كوش نيوز وقد قام فريق التحرير في الخليج 365 بالتاكد منه وربما تم التعديل علية وربما قد يكون تم نقله بالكامل اوالاقتباس منه ويمكنك قراءة ومتابعة مستجدادت هذا الخبر من مصدره الاساسي.
مشاركة :