كشفت دراسة علمية حديثة عن أنه سيكون من السهل، إلى حد كبير، برمجة المركبات ذاتية التحكم لاتخاذ قرارات أخلاقية كالتي يقوم بها الإنسان أثناء قيادته.وأكدت الدراسة التي قام بها معهد علم الاستعراف في جامعة أوزنابورك الألمانية أن القرارات الأخلاقية التي يتخذها الإنسان أثناء القيادة ليست معقدة أو ذات سياق اعتمادي كما كان يعتقد في السابق، فبحسب الدراسة فإن هذه القرارات تتبع نموذجاً بسيطاً يستند إلى قيم الحياة، ما يعني أن برمجة السيارات ذاتية التحكم لتتخذ قرارات أخلاقية يجب أن يكون سهلاً نسبياً.وتبعاً لموقع «Futurism.com» فإن الدراسة التي ضمت 105 مشاركين وضِعوا في سيناريو ضمن واقع افتراضي حيث سمح لهم بالقيادة في يوم ضبابي، ثم واجهوا معضلات لا يمكن تجنبها، تجبرهم على الاختيار بين أن يُقدموا على الاصطدام إما بمجموعة من الناس أو الحيوانات أو الجمادات عبر سياراتهم الافتراضية.وكان الافتراض السابق يشير إلى أن هذه الأنواع من القرارات الأخلاقية كانت تعتمد بشكل كبير على السياق الموجود وبالتالي فإنها خارج إطار النمذجة الحسابية، إلا أن الدراسة وجدت عكس ذلك تماماً، إذ إنه بالإمكان نمذجة سلوك الإنسان عند التعرض لمواقف يواجه فيها معضلات من خلال نموذج بسيط قائم على قيم الحياة التي ينسبها المشارك لكل البشر والحيوانات أو الجمادات.ومساندة لفكرة إدخال التكنولوجيا في عالم السيارات، أكد مؤسس شركة «تسلا» للتكنولوجيا ورئيسها التنفيذي إيلون ماسك، في وقت سابق، أن من لا يدعمون التكنولوجيا هم أشخاص يقتلون الآخرين! ووجهة نظره هذه تشير إلى أنه بالإمكان أن تكون التكنولوجيا أكثر ذكاءً ونزاهة وأفضل في القيادة مقارنة بالإنسان، وبالتالي القدرة على الحفاظ على الأرواح.وأوضح التقرير أنه في الوقت الحالي، نجد أن السيارات ذاتــية الـقيادة تتكون من قطع كبيرة من العتاد مدعومة بتكنولوجيا قيادة ذاتية بدائية، لكن وبحسب ما خلصت إليه الدراسة فإن حجم الأرواح التي من الممكن أن نحافظ عليها مرهون بكيفية برمجة هذه السيارات.وفي تصريح له، أشار أحد كبار الباحثين القائمين على الدراسة البروفيسور جوردون بيبا إلى أننا نحتاج إلى أن نتساءل حول إمكانية أن تتبنى الأنظمة ذاتية التحكم الأحكام الأخلاقية، فإذا كان الجواب يقول بإمكانية ذلك فسيجدر بنا أن نتساءل فنقول هل يجب على هذه الأنظمة أن تحاكي السلوك الأخلاقي من خلال محاكاة القرارات الإنسانية، أم أنه يجب أن تسلك في ذلك من خلال النظريات الأخلاقية وبشكل نقدي، إذا كانت الأمور تسير في الاتجاه الخاطئ، فمن الذي يكون على خطأ؟ وما الخطأ؟وأكد التقرير أن أخلاقيات الذكاء الاصطناعي، بشكل عام، ما زالت تمثل مستنقعاً في ما يتعلق بالقضايا الأخلاقية، ونتيجة لذلك نجد أن العديد من التوجيهات والمبادرات التي تطلق محاولة لتعديل مجموعة من القوانين المسؤولة في تطبيق الذكاء الاصطناعي، وفي هذا الاتجاه نجد أن وزارة النقل الاتحادية والبنية التحتية الرقمية في ألمانيا قامت بتطوير مجموعة تمثل 20 مبدأ يجب على السيارات التي تدعم الذكاء الاصطناعي اتباعها.وأشار التقرير إلى أن حجم مستوى الأمان الذي ستكون عليه السيارات ذاتية القيادة في المستقبل يعتمد على كيفية اختيارنا لبرمجة هذه السيارات، وبينما نجد أن هذه المهمة ليست بالسهلة، فإن معرفة كيفية التفاعل في مختلف المواقف يجب أن يساعدنا في هذا الجانب.
مشاركة :