خبراء يبحثون طريقة "إلغاء التعلم" للمعلومات الخاطئة لدى برامج الذكاء الاصطناعي

  • 12/10/2023
  • 12:29
  • 5
  • 0
  • 0
news-picture

نشرت صحيفة الشرق الأوسط، تقريرًا تساءلت فيه حول الطريقة التي يمكن من خلالها محو المعلومات الخاطئة لدى روبوتات الذكاء الاصطناعي الحديثة مثل تشات جي بي تي، وجوجل بارد. وقالت الصحيفة: "بعدما اكتشف السياسي الأسترالي براين هود أن تشات جي بي تي قد نسب إليه ماضيا إجراميا، وجد نفسه أمام تحد يعمل المهندسون جاهدين على معالجته، وهو كيفية تعليم الذكاء الاصطناعي لمحو الأخطاء". رغم إمكانية رفع دعوى تشهير ضد شركة "أوبن إيه آي"، منشئة "تشات جي بي تي"، في إبريل الماضي، فإنّ هذا الحل لا يبدو مناسبًا، وتعديل معايير الذكاء الاصطناعي بشكل كامل أيضًا ليس حلاًّ مثاليًّا، حيث يتطلب إعادة تدريب النموذج وقتًا طويلاً وتكلفة باهظة. ويرى المختصون أن مسألة "إلغاء التعلم"، أي جعل الذكاء الاصطناعي ينسى جزءًا من المعلومات التي تم تعلمها، ستكون ذات أهمية كبيرة في السنوات المقبلة، خاصة مع التشريعات الأوروبية لحماية البيانات. اقرأ أيضا: مسؤول بشركة "ميتا": الذكاء الاصطناعي بمستوى "القطط والكلاب" وليس "البشر" وأكدت أستاذة علوم المعلومات في جامعة "آر إم آي تي" في ملبورن، ليسا غيفن، أن القدرة على محو البيانات في قواعد بيانات التعلم هي مسألة مهمة للغاية، مشيرةا إلى أن هناك حاجة إلى جهد كبير في هذا المجال نظرًا للنقص الحالي في فهم كيفية عمل الذكاء الاصطناعي. أما في سياق الكم الهائل من البيانات التي يتم تدريب الذكاء الاصطناعي عليها، فيسعى المهندسون إلى حلول تسمح بتحديد دقيق، لإزالة المعلومات الخاطئة من أنظمة الذكاء الاصطناعي. واتخذت "غوغل ديب مايند"، المتخصصة في الذكاء الاصطناعي، خطوات لمعالجة هذه المشكلة، حيث نشر خبراء الشركة خوارزمية مخصصة لمحو البيانات في نماذج لغوية مهمة مثل "تشات جي بي تي" و"بارد" من "غوغل". وشارك أكثر من 1000 خبير في مسابقة أطلقتها الشركة لتحسين أساليب "إلغاء تعلم" الذكاء الاصطناعي، وتعتمد الطريقة المستخدمة على إدخال خوارزمية تأمر الذكاء الاصطناعي بعدم احتساب بعض المعلومات المكتسبة دون تعديل في قاعدة البيانات. اقرأ أيضا: المملكة الأولى عالميًا بميداليات مسابقة الذكاء الاصطناعي للشباب وفي رأي الخبير مقداد كرمانجي من جامعة وارويك، فإن هذه العملية يمكن أن تكون "أداة مهمة جدًّا" لدعم طلبات الحذف وفقا لقواعد حماية البيانات الشخصية. وعلى الرغم من فاعلية هذه الخوارزمية، يبدي بعض المسؤولين، مثل يان لوكان من "ميتا" (فيسبوك وإنستغرام)، شكوكًا في فاعليتها، وأشار لوكان إلى أن هناك أولويات أخرى يجب النظر فيها. وأكد أستاذ الذكاء الاصطناعي في جامعة إدنبره، مايكل روفاتسوس، أن الحل التقني ليس الحل الناجح، مشيرا إلى أن إلغاء التعلم لا يحل الأسئلة الأكبر حول جمع البيانات واستخدامها، ومن يتحمل المسؤولية عن الأضرار الناجمة عن الذكاء الاصطناعي. على الرغم من حسم قضية براين هود بشكل غامض، فإنه يرى أن الأساليب المستخدمة حاليًّا يجب أن تظل يدوية، حيث لفت إلى ضرورة عمل المستخدمين على التحقق من المعلومات المقدمة من روبوتات الدردشة في حالة توفير معلومات غير صحيحة.

مشاركة :