يشير خبراء التكنولوجيا إلى أن التطور المستقبلي للذكاء الاصطناعي قد يكون له عواقب كارثية على العالم ومخاطر تهدد البشرية. وفي أكبر استطلاع حتى الآن لباحثي الذكاء الاصطناعي، يقول الأغلبية إن هناك خطرا "غير تافه" لانقراض البشر بسبب التطور المحتمل لذكاء اصطناعي خارق. وسأل فريق من العلماء الدوليين 2778 خبيرا في الذكاء الاصطناعي عن مستقبل هذه الأنظمة، وأبلغ ما يقارب 58% منهم إنهم يعتبرون أن خطر انقراض الإنسان أو غيره من النتائج السيئة للغاية الناجمة عن التكنولوجيا يبلغ نحو 5%. لكن التقدير الأكثر إثارة للخوف جاء من واحد من كل 10 باحثين قال إن هناك احتمالا صادما بنسبة 25% بأن الذكاء الاصطناعي سيدمر الجنس البشري. واستشهد الخبراء بثلاثة أسباب محتملة: سماح الذكاء الاصطناعي للجماعات المهددة بصنع أدوات قوية، مثل الفيروسات المهندسة، و"الحكام المستبدون الذين يستخدمون الذكاء الاصطناعي للسيطرة على شعوبهم، وأنظمة الذكاء الاصطناعي التي تؤدي إلى تفاقم عدم المساواة الاقتصادية". ويشير الباحثون إلى أن التحكم في تنظيم الذكاء الاصطناعي هو الحل الوحيد لحماية البشر، وإذا لم يتم تنظيم الذكاء الاصطناعي، فقد قدروا أن هناك احتمالا بنسبة 10% أن تتفوق الآلات على البشر في جميع المهام بحلول عام 2027، لكن النسبة سترتفع إلى 50 % بحلول عام 2047. وسأل الاستطلاع الخبراء عن أربع مهن محددة من شأنها أن تصبح قابلة للتشغيل الآلي بالكامل، بما في ذلك سائقي الشاحنات، والجراحين، ومندوبي مبيعات التجزئة، والباحثين في مجال الذكاء الاصطناعي، وتلقوا الرد بأن هناك احتمالا بنسبة 50% أن يتولى الذكاء الاصطناعي السيطرة بالكامل على هذه المهن بحلول عام 2116. وأثارت مسألة ما إذا كان الذكاء الاصطناعي يشكل تهديدا كبيرا للبشرية جدلا حادا في وادي السيليكون في الأشهر القليلة الماضية. ونشر الرئيس التنفيذي لشركة OpenAI، سام ألتمان، والرئيس التنفيذي لشركة Google DeepMind، ديميس هاسابيس، بيانا في شهر مايو من العام الماضي، يطالبون فيه بمزيد من التحكم والتنظيم في مجال الذكاء الاصطناعي. وقال البيان: "إن التخفيف من خطر الانقراض الناجم عن الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية". وأشار دان هندريكس، المدير التنفيذي لمركز سلامة الذكاء الاصطناعي، في بيان منفصل في ذلك الوقت، إلى أن هناك العديد من "المخاطر المهمة والعاجلة من الذكاء الاصطناعي، وليس فقط خطر الانقراض، على سبيل المثال، التحيز المنهجي، والمعلومات المضللة، والاستخدام الضار، والهجمات الإلكترونية، والتسليح". كما أعرب جيفري هينتون "عراب الذكاء الاصطناعي"، عن ندمه على خلق الذكاء الاصطناعي. وما يزال هناك قدر كبير من عدم اليقين بشأن التأثير طويل الأمد للذكاء الاصطناعي، واعترفت الدراسة بأن "التنبؤ صعب، حتى بالنسبة للخبراء". المصدر: ديلي ميل تابعوا RT على
مشاركة :