برنامج للذكاء الاصطناعي في التنبؤ بنتيجة مئات القضايا التي عُرضت على المحكمة الأوروبية لحقوق الإنسان، حسبما أفاد باحثون. لكن منتقدين يرون أن الذكاء الاصطناعي لن يكون بوسعه على الإطلاق أن يفهم الفروق الطفيفة في الدعاوى القضائية. وقال الباحثون إن الدراسة، التي جرت بالتعاون بين جامعات كوليدج لندن وشيفيلد وبنسلفانيا، لا تؤشر على نهاية وظيفة المحاماة. واستخدم الباحثون مجموعات بيانات باللغة الإنجليزية تخص 584 قضية متعلقة بثلاثة بنود من المعاهدة الأوروبية لحقوق الإنسان، هي: التعذيب والمعاملة المهينة، والحق في المحاكمة العادلة، واحترام الحياة الخاصة. ووقع الاختيار على هذه البنود لأنها ممثلة لقضايا عن الحقوق الأساسية، وكذلك بسبب توفر كمية هائلة من البيانات المتاحة للعامة عنها. وبحث النظام الحسابي في برنامج الذكاء الاصطناعي الأنماط السائدة في النصوص، وكان بوسعه تصنيف كل قضية على أنها "انتهاك" أو "عدم انتهاك" للقوانين. ومن أجل تفادي الانحياز وسوء التعلم، اختار فريق الباحثين عددا متساويا من حالات الانتهاك وعدم الانتهاك كي يتعلم منها برنامج الذكاء الاصطناعي. وجنح النظام إلى الخطأ في التنبؤ بالأحكام عند وجود تشابه بين دعوتين قضائيتين، إحداهما لانتهاك والأخرى لعدم انتهاك، وهو ما يشير إلى أن البرنامج لم يكن بمقدوره رصد الخفايا الدقيقة للقانون. والمرحلة المقبلة أمام الباحثين هي اختبار النظام مع تزويده بمزيد من البيانات. وقال نيكولاوس اليتراس، الأستاذ بجامعة كوليدج لندن والذي قاد الدراسة، لبي بي سي "لا يوجد سبب يمنع توسيعه لكي يفهم شهادات الشهود ومذكرات المحامين".
مشاركة :