يحذر العلماء من تطوير أسلحة ذاتية العمل من بينها أسلحة دمار شامل يتم التحكم بها بواسطة الذكاء الصناعي. بحيث إنه لا يمكن ضمان عمل الروبوتات والأسلحة الذكية من دون عطب، فإن حدث عطل بالفعل فسيقع الأبرياء ضحايا الهجوم. ويقول المختصون في مجال الأخلاق خلال اجتماع الرابطة الأميركية لتقدم العلوم في واشنطن، إن «منح الروبوت حرية القتل بدون أي تدخل من قبل الإنسان هو خطوة مبالغ فيها من الناحية الأخلاقية». وتدعو منظمة «Human Rights Watch» لحقوق الإنسان إلى وقف إنتاج «الإنسان الآلي القاتل» والضغط من أجل إبرام معاهدة دولية بهذا الخصوص. وتقول ميري وارينهام من المنظمة، «إن استخدام أسلحة ذاتية العمل، كطائرات من دون طيار لأغراض عسكرية أمر مقلق». كما يرى خبير من جامعة في نيويورك أن منح مسؤولية القتل لآلة فيه انتهاك لحقوق الإنسان، لأن الآلة لا تملك حسا أخلاقيا ولا تتحمل المسؤولية عن قراراتها المتعلقة بالحياة والموت، لذلك فمن صمموها سيكونون هم المسؤولون. كذلك توجد شركة «Boston Dynamics» التي تصنع روبوتات حديثة تطور أجهزة روبوت عسكرية، في هذا السياق يستخدم روبوت آلي مثلا لحماية الحدود في كوريا الجنوبية، واستخدمت طائرة «MQ-9» من دون طيار في اليمن وأفغانستان. وتعرف الأسلحة الذكية، بأنها نوع من الروبوتات العسكرية ذاتية التحكم، والتي تقوم بالبحث عن هدفها، وتشتبك معه، بناء على وصف، ومحددات مبرمجة، والتي بإمكانها أن تقوم بغرضها الأساسي برا، وفي قلب السماء، وعلى سطح الماء، وفي أعماق البحار. لكن هناك عدة مفاهيم للأنظمة الذاتيّة وأكثرها شيوعا وهي: قدرة النظام أن يتصرف وفقا لأهدافه، ومعرفته الداخلية، بدون أية تدخلات خارجية، وفكرة استخدام الروبوتات مغرية للأميركيين لأن هذا يقدم فرصة في استبدال جنود بشريين بالروبوتات.
مشاركة :