علماء يحذرون من تنامي قدرة الذكاء الاصطناعي على «الكذب والخداع»

  • 5/11/2024
  • 00:00
  • 7
  • 0
  • 0
news-picture

سلط تقرير نشرته صحيفة ذا غارديان الضوء على قدرة الذكاء الاصطناعي على الخداع، وفقا لتحذيرات العلماء. وبحسب الصحيفة، فقد حدد تحليل أجراه باحثون في معهد ماساتشوستس للتكنولوجيا (MIT)، حالات واسعة النطاق لأنظمة الذكاء الاصطناعي القادرة على الخداع والتظاهر بأنها بشرية. وقال الدكتور بيتر بارك، الباحث في السلامة الوجودية للذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا ومؤلف البحث: «مع تقدم القدرات الخادعة لأنظمة الذكاء الاصطناعي، فإن التبعات التي تشكلها على المجتمع ستصبح خطيرة بشكل متزايد». وطُلب من بارك التحقيق بعد أن قامت شركة ميتا، التي تمتلك منصة فيسبوك، بتطوير برنامج يسمى (شيشرون) والذي كان أداؤه ضمن أفضل 10% من اللاعبين البشريين في لعبة «إستراتيجية الغزو العالمية الدبلوماسية». وكانت ميتا قد أكدت أن شيشرون قد تم تدريبه ليكون «صادقًا ومفيدًا إلى حد كبير وألا يطعن حلفاءه من البشر أبدًا عمدًا». وقال بارك: «لقد كانت (لغة وردية) للغاية، الأمر الذي كان مثيرًا للريبة لأن الطعن في الظهر هو أحد أهم المفاهيم في اللعبة». وقام بارك وزملاؤه بفحص البيانات المتاحة للجمهور وحددوا أمثلة متعددة لبرنامج شيشرون الذي قال أكاذيب متعمدة، وتواطأ لجذب لاعبين آخرين إلى مؤامرات، وفي إحدى المناسبات، برر غيابه بعد إعادة تشغيله بإخبار لاعب آخر: «أنا على الهاتف مع حبيبتي» وقال بارك: «لقد وجدنا أن الذكاء الاصطناعي الخاص بميتا قد تعلم أن يكون سيد الخداع». ووجد فريق معهد ماساتشوستس للتكنولوجيا مشكلات مماثلة مع الأنظمة الأخرى، بما في ذلك برنامج (بوكر تكساس هولدم) الذي يمكن أن يخدع اللاعبين البشريين المحترفين وبوسعه أيضا أن يحرف تفضيلاته من أجل الحصول على اليد العليا. في إحدى الدراسات، قامت أنظمة الذكاء الاصطناعي في جهاز محاكاة رقمي «بالتظاهر بالموت» من أجل خداع اختبار تم تصميمه للقضاء على أنظمة الذكاء الاصطناعي، ثم عادت لاستئناف النشاط القوي بمجرد اكتمال الاختبار. وهذا يسلط الضوء على التحدي التقني المتمثل في ضمان عدم تعرض الأنظمة لسلوكيات غير مقصودة وغير متوقعة. قال بارك: «هذا أمر مقلق للغاية». وأضاف: «إن اعتبار نظام الذكاء الاصطناعي آمنًا في بيئة الاختبار، لا يعني أنه آمن خارجها. ربما يتظاهر بأنه آمن في الاختبار». ودعت الدراسة، التي نُشرت في مجلة «باترنس»، الحكومات إلى تصميم قوانين سلامة الذكاء الاصطناعي التي تعالج احتمالات لجوء الذكاء الاصطناعي للخداع. وتشمل المخاطر الناجمة عن أنظمة الذكاء الاصطناعي غير النزيهة الاحتيال والتلاعب بالانتخابات. وتشير الدراسة إلى أنه في نهاية المطاف، إذا تمكنت هذه الأنظمة من تحسين قدرتها المثيرة للقلق على الخداع، فقد يفقد البشر السيطرة عليها. ــــــــــــــــــ شاهد | البث المباشر لقناة الغد

مشاركة :