ليس خيالا إنما أقرب إلى الحقيقة من استغلال بعض العصابات للروبوتات وأجهزة الاتصال الإلكتروني في ارتكاب جرائم قتل أو دهس أو الإضرار بالآخرين أو بانتحال صور وأصوات لبعض الأشخاص، بهدف ارتكاب الجرائم ومن دون أن تطالهم العقوبة، لأن القانون لا يعاقب إلا الشخص الطبيعي، بينما الآلي أو الافتراضي كالروبوتات فلا يعاقبها القانون... «الجريدة» عرضت هذه القضية على عدد من الخبراء القانونيين الذين أكدوا وجود فراغ تشريعي يتطلب من مجلس الأمة الإسراع إلى إغلاقه، حتى لا يكون الذكاء الاصطناعي منفذا جديدا للعصابات والمافيات لارتكاب الجرائم. إلى ذلك، قال عميد كلية القانون الكويتية العالمية د. فيصل الكندري إنه «لمواجهة الأخطاء التي ترتكب بواسطة كيان الذكاء الاصطناعي، والتي قد تشكل جرائم عمدية أو غير عمدية علينا أن نحدد ثلاثة احتمالات بكيفية ارتكاب الجريمة، لنحدد بعدها الشخص الذي ستسند إليه المسؤولية الجزائية، وبالمثالين التاليين نستطيع أن نفهم الاحتمالات الثلاثة: سيارة بقيادة ذاتية صدمت شخصا فأصابته، وروبوت يجري عملية جراحية فيحدث خطأ نتج عنه إصابة أو وفاة». وأضاف الكندري: «إذن لنا أن نحدد الآتي: - الاحتمال الأول: المسؤولية الجزائية لارتكاب الجريمة بواسطة شخص آخر، وستكون التهمة موجهة للمنتج والمصنع أو المبرمج، والروبوت أو السيارة ذاتية القيادة وسيلة في ارتكاب جريمة. - الاحتمال الثاني: المسؤولية الجزائية على من يسيء استخدام كيان الذكاء الاصطناعي لارتكاب جريمة، وهنا يستبعد المبرمج والمنتج والمصنع من تحمل المسؤولية الجزائية، لعدم نسبة أي خطأ من جانبه، ويتم إرجاع السبب لمن يستخدم الإجراءات العادية لنظام الذكاء الاصطناعي بشكل غير مناسب لأداء عمل إجرامي. - الاحتمال الثالث: المسؤولية المباشرة، ويتم إلحاق المسؤولية مباشرة بكيان الذكاء الاصطناعي، كما يتم تحميلها للأفراد عادة، ومعلوم أن كيانات الذكاء الاصطناعي تعتبر غير قادرة على تحمل المسؤولية الجزائية، بسبب عجزها كالأطفال والمجانين ومن في حكمهم، فيلزم عندها إثبات ما إذا كان نظام الذكاء الاصطناعي يتخذ إجراء يؤدي إلى عمل إجرامي أو يخفق في اتخاذ الإجراء، ويعتبر تحديد القصد الجنائي لإثبات ما إذا كان البرنامج يعمل بشكل خاطئ فيدفع عن نفسه بالمسؤولية كدفاع الشخص الطبيعي بحجة الجنون؟ وهل يمكن للذكاء الاصطناعي المتأثر بفيروس إلكتروني أن يدفع عن نفسه بالمسؤولية بسبب الإكراه؟». وأشار إلى أن هذه هي الاحتمالات الثلاثة من إسناد المسؤولية الجزائية عند ارتكاب كيان الذكاء الصناعي فعلا يعد جريمة، مبينا أن التشريعات الحالية تستوعب أي احتمال، لكن بالإمكان إجراء دراسات أعمق لبحث احتمالات أخرى قد تحتاج الى تدخل تشريعي. الحماية الجنائية من جانبه، أكد رئيس قسم القانون الجزائي في كلية الحقوق بجامعة الكويت د. حسين بوعركي أن استخدام تقنيات الذكاء الاصطناعي وما تشهده الثورة الصناعية والتقدم التكنولوجي من أهم ما يواجه المشرع الجنائي، في كل التشريعات، ليس فقط لما يتيحه هذا التطور من وسائل جديدة في ارتكاب الجرائم، بل أيضا لما يفرضه من ضرورة إضفاء الحماية الجنائية على المصلحة الجديدة التي قد تتولد عن هذا التطور، أو في عبارة أدق، قيامه بتجريم الأفعال التي من شأنها الإضرار بهذه المصالح». وتابع بوعركي: «إذا كانت هذه الحقيقة تنطبق، بداهة، على كل أنواع القوانين، إلا أن آثار هذا التطور تنعكس، بصورة خاصة، على القانون الجنائي الذي يقوم بحماية النظام العام والحقوق الأساسية للمجتمع والأفراد، على النحو الذي يؤدي الى الإضرار الجسيم بهذا النظام، وتلك الحقوق، حال غياب التنظيم القانوني، لظاهرة إجرامية جديدة». واستطرد: «يمكن تعريف الذكاء الاصطناعي بأنه الاستخدام الآلي للتقنيات الحديثة على النحو الذي يتم دون تداخل إرادي لحظة إتيان الفعل، ويوضح هذا التعريف مدى ما يواجه، على هذا النحو، المشرع الجنائي، بل القانون الجنائي ذاته، الذي يستند إلى مبدأ المسؤولية الشخصية، من تحديات جديدة، فيثور من ثم التساؤل حينما يتم ارتكاب الجريمة من خلال إحدى هذه التقنيات، عن مدى ملاءمة تطبيق قواعد المسؤولية التقليدية على مواجهة هذه الظواهر الجديدة». واردف: «سوف نحدد ثلاثة عناصر يمكن أن تشكل توجيها للسياسة الجنائية المتعلقة بمواجهة هذه الظاهرة، وهي بيان مسؤولية الأشخاص الاعتبارية التي تقوم بخلق الآلية او استحداثها، ومسؤولية الأشخاص الاعتبارية التي تقوم باستخدام هذه الوسائل، ومسؤولية الشخص الطبيعي يمكن أن تتأسس على فكرة الفاعل المعنوي، وعليه يجب تدخل المشرع للنص على التجريم، وتشديد العقوبة في حالات ارتكاب الجرائم بهذه الوسائل، فضلا عن تطبيق النصوص الموجودة كالنصب والتزوير وغيرها، ويمكن أن ينص المشرع على تشديد العقوبات حال ارتكاب أي جريمة بواسطة تقنيات الذكاء الاصطناعي». تحديات تشريعية بدوره، ذكر أستاذ القانون الجزائي في كلية الحقوق جامعة الكويت د . محمد التميمي أن أنظمة الذكاء الاصطناعي ستشكل أحد أهم التحديات التشريعية للقانون الكويتي، في ظل توغلها في مناحي الحياة المختلفة ودخولها سوق العمل العالمي في مختلف ميادينه، وهو ما ألزم العديد من المشرعين إفراد معالجات قانونية خاصة لها، كما فعل الاتحاد الأوروبي بوضع مجموعة القواعد الأوروبية في القانون المدني للروبوت، وتبني العديد من الولايات الأميركية قوانين خاصة للذكاء الاصطناعي. وأضاف التميمي أن الإشكالية الرئيسية تكمن في فكرة استقلالية الذكاء الاصطناعي عن الإنسان في اتخاذ القرار، وهو ما تبلور في صور عدة، منها السيارات ذاتية القيادة والآلات المصنعية في المعامل والمصانع والمختبرات، ولما كانت أنظمة الذكاء الاصطناعي قابلة للاختراق من عناصر بشرية فإن القوانين الكويتية قادرة على استيعاب أفعال الدخول غير المشروع لهذه الأنظمة، من خلال قانون رقم 63 لسنة 2015 بشأن مكافحة جرائم تقنية المعلومات. وتابع: «كما يعاقب قانون مكافحة جرائم تقنية المعلومات الاختراق المجرد الذي لا يهدف مرتكبه سوى الدخول غير المشروع للنظام الآلي للذكاء الاصطناعي أو الاختراق الموصوف الذي يهدف مرتكبه لإحداث تغيير في البيانات والمعلومات والمعطيات سواء بالسرقة أو التغيير أو الحذف أو الإضافة، كما أن قواعد قانون الجزاء الكويتية قابلة -جزئيا- لاستيعاب بعض الجرائم التي ترتكب من خلال هذه الأنظمة عبر اختراقها، كما لو اخترقت أنظمة روبوتات المركبات ذاتية القيادة من أجل تنفيذ عمليات قتل أو إصابات أو هجمات إرهابية أو خطف راكب المركبة أو انتحال صفة الغير أو جرائم التزوير». واستدرك: «إلا أن المشكلة تكمن في الأضرار والجرائم التي ترتكب من قبل الذكاء الاصطناعي دون تدخل خارجي أو اختراق تقني، وهو ما يحدث مع المركبات ذاتية القيادة والآلات التي تتحكم فيها وتقودها الروبوت وليس الإنسان، والتي من شأنها نقل عنصر السيطرة الفعلية من الإنسان إلى الذكاء الاصطناعي، بما فيها من اتخاذ القرارات المتعلقة بالعملية محل التنفيذ، ولما كان الذكاء الاصطناعي عبارة عن منتج أو سلعة فهو يخضع لأحكام قانون رقم 39 لسنة 2014 بشأن حماية المستهلك، والذي ينص في المادة 9 منه على حق المستهلك في ضمان صحته وسلامته عند تزويده بأي سلعة أو خدمة، الأمر الذي يستنهض مسؤولية المورد، سواء كان شخصا طبيعيا أو اعتباريا، وفق نصوص القانون، وعلى الأخص المادة 16 منه، إذا علم بوجود عيب في أنظمة الذكاء الاصطناعي التي وردها للمستهلك. تحديد المسؤول وأشار التميمي إلى أن الصعوبة بشأن المسؤولية الجزائية لأنظمة الذكاء الاصطناعي تكمن في تحديد المسؤول عن الجريمة أو الضرر الذي أحدثته تلك الأنظمة، خاصة في ظل تحلل الإنسان الطبيعي صاحب نظام الذكاء الاصطناعي من عنصر القيادة واتخاذ القرار، الأمر الذي يقطع العلاقة السببية في مسؤولية الشخص الطبيعي طالما أنه لم يثبت وجود خلل سابق يرجع إلى صناعة أو برمجة أو تصميم الذكاء الاصطناعي. وأفاد بأن الدولة قد تكون مساهما رئيسيا في تحقق الجريمة أو الضرر من خلال الذكاء الاصطناعي، حيث إن هذا الأخير صمم ليعمل وفق بيئة ذكية من حيث العلامات والإشارات المطلوب منه قراءتها وترجمتها واتخاذ القرار الصحيح بشأنها، فعلى سبيل المثال تعتبر رداءة البنى التحتية للطرقات، والتي تتسبب فيها الدولة عنصرا رئيسيا في عدم قدرة الذكاء الاصطناعي على قراءة تلك العلامات أو التعامل مع بيئة الطريق واتخاذ القرار المناسب. وشدد على ضرورة أن تستعد الدولة قانونيا وفنيا للتعامل مع كل أنظمة الذكاء الاصطناعي، بما تحمله من جوانب إيجابية وسلبية، من خلال تطوير المنظومة القانونية المدنية والجزائية، علاوة على تحسين البيئة والوسط الذي ستسمح الدولة من خلاله بإدخال أنظمة الذكاء الاصطناعي. مراجعة يؤكد المحامي عبدالرحمن الهاملي أن المشرّع الكويتي مطالب بمراجعة التشريعات الجزائية بقسميها الإجرائي والعقابي، وذلك لمواكبة التطور التقني والتكنولوجي الذي فرضته تطبيقات الذكاء الصناعي. ويضيف الهاملي: إن التشريعات الحالية لا يمكنها مجاراة التقنية الحديثة التي قد تستخدم الجريمة عن طريق أجهزة التحكم عن بُعد أو الممارسات التقنية الحديثة التي بدت تستخدم المجسمات الافتراضية في جرائم النصب والغش. ويوضح أن على المشرع مراجعة قوانين الجزاء وجرائم تقنية المعلومات وهيئة الاتصالات وتقنية المعلومات، مع الاستعانة بخبراء متخصصين في الجوانب الفنية والذكاء الصناعي لهذا لعالم، للوصول الى كيفية إثبات ومساءلة والحد منها، وذلك لأنّ وقوع أي من الجرائم المنبثقة من الذكاء الصناعي سيرتّب إعفاء الجناة من العقاب لصعوبة إثبات أدلة الجريمة أو الوصول الى مرتكبها.
مشاركة :