الآلاف من "الهاكرز" يجتمعون لاختبار عيوب تطبيقات الذكاء الاصطناعي

  • 5/14/2023
  • 00:00
  • 1
  • 0
  • 0
news-picture

أحدث الذكاء الاصطناعي ثورة على مستوى العالم أجمع بطرق كان يُعتقد في السابق أنها مستحيلة، وجعل حياتنا أكثر راحة وحل المشكلات التي بدت غير قابلة للحل. ومع ذلك، توجد مخاوف ومخاطر مرتبطة بالذكاء التوليدي خاصة في ما يتعلق بروبوتات الدردشة المفتوحة لذلك تنسق واشنطن لجمع شركات التكنولوجيا مع قراصنة المعلوماتية للتعامل مع تطبيقات مثل “تشات جي.بي.تي” وبارد وبينغ. واشنطن - ينسق البيت الأبيض مع الشركات الرائدة في مجال روبوتات الذكاء الصناعي، مثل “أوبن أي.آي” و”غوغل” و”مايكروسوفت” من أجل السماح لآلاف من القراصنة باختبار مدى أمان التعامل مع هذه الروبوتات التوليدية. ويرى الباحثون وحتى الشركات التكنولوجية أن قراصنة المعلوماتية يمكن أن يساعدوا مدراء أمن تكنولوجيا المعلومات لاكتشاف الثغرات الأمنية وإنشاء أفضل الحلول لتحديد وإدارة الثغرات الأمنية من أجل حماية الجمهور. وقالت وكالة أسوشيتد برس في تقرير لها، إن بعض الأشياء التي سيطلب من القراصنة العمل عليها هي طرق التلاعب ببرامج الذكاء الصناعي لإحداث ضرر ما ومدى قيامهم بمشاركة معلومات خاصة لمستخدمين آخرين من بين قضايا أخرى. ونقلت الوكالة عن منسقة حدث استضافة القراصنة المقرر عقده هذا الصيف في لاس فيغاس رومان تشودري “إننا بحاجة إلى الكثير من الأشخاص الذين لديهم مجموعة واسعة من الخبرات الحية وخلفيات القرصنة في هذه النماذج في محاولة للعثور على المشكلات التي يمكن إصلاحها بعد ذلك”. "الفرق الحمراء" هي مجموعات مرخصة من قبل الشركات تعمل على شن هجمات على نماذج الذكاء الاصطناعي لاكتشاف نقاط ضعفها وتحاول محركات البحث التوليدية مثل “تشات جي.بي.تي” أو “بينغ تشات” أو “غوغل بارد” أن تظهر أن لديهم ميلا أحيانا لاختلاق المعلومات وتقديمها بثقة على أنها حقيقة. لكن باحثين في مجال السيبراني يشددون على أن الشركات التي تهرع للاعتماد على أنواع جديدة من الذكاء الاصطناعي ينبغي لها أن تتوخى الحذر عند استخدام تطبيقات وأنظمة مفتوحة المصدر من التكنولوجيا، والتي قد لا يعمل بعض منها حسبما تم الإعلان عنه، أو تنطوي على ثغرات يمكن استغلالها من قبل قراصنة. وأوضح هيروم أندرسون المهندس الشهير من شركة “روبوست إنتليجنس”، وهي شركة أمن سيبراني للتعلّم الآلي أنه يوجد برنامج آمن مكون من خوارزميات يمكنه القيام بأمور على غرار توليد النصوص والصور والتنبؤات. وأضاف أن هذا البرنامج أثبت أن نصف النماذج المتاحة للجمهور لتبويب الصور أخفقت في اجتياز 40 في المئة من اختباراته. وكان الهدف من الفحص تحديد ما إذا كان بإمكان عنصر ضار تعديل مخرجات برامج الذكاء الاصطناعي بأسلوب يمكن أن يمثل خطراً أمنياً، أو الإمداد بمعلومات مغلوطة. وفي ظل الشعبية الطاغية التي حظي بها روبوت الدردشة “تشات جي.بي.تي” التابع لشركة “أوبن أي.آي” وبارد من غوغل وبرنامج “دال-إي” لإنشاء الصور، يهرع العملاء من المؤسسات وشركات تطوير تطبيقات الإنترنت إلى إضافة ما يطلق عليه قدرات الذكاء الاصطناعي التوليدية لعملياتهم ومنتجاتهم الخاصة بأنشطتهم التجارية. يتمثل أحد الخيارات في سداد مقابل لـ”أوبن أي.آي” للحصول على أدواته، لكن عملاء عديدين يلجؤون لاستخدام إصدارات مجانية مفتوحة المصدر متاحة على الإنترنت. Thumbnail ومع استعمال أدوات مفتوحة المصدر، يستطيع المستخدمون تحميل النموذج بينما تحتفظ “أوبن أي.آي” بسرية نماذجها وتوفر عوضاً عن ذلك حق الوصول لاستخدامها. وقال أندرسون عن الأدوات مفتوحة المصدر “تجعل الذكاء الاصطناعي متاحاً للجميع بشكل لا مثيل له”، لكنه أضاف أنه يوجد عنصر “مخيفٌ” فيها، عندما يُحمَّل النموذج، فإنه يُشغل في الخلفية شفرة على جهاز المستخدم دون الحصول على إذن منه. وهذا ما يمثل هذه مخاطرة أمنية، لأن العنصر الضار قد يستخدم تنفيذ تعليمات البرمجة في القيام بأمر خطير أو الاستيلاء على كمبيوتر. وحذرت شبكة ميتا من أن قراصنة معلوماتية يركبون موجة الذكاء الاصطناعي التوليدي من خلال الترويج لبرامج تشبه أدوات هذه التكنولوجيا الحديثة، لكنها تستخدم في الواقع لخداع المستخدمين. و قال ماري سولانج كايزير مدير أمن أنظمة المعلوماتية لدى ميتا “منذ مارس الماضي حددت عمليات المسح التي أجريناها عشر مجموعات من البرامج الضارة التي تدعي أنها تابعة لبرنامج تشات جي بي تي، وواجهات أخرى مماثلة لخرق حسابات الإنترنت”. ورصدت فرق أمن المعلوماتية التابعة لميتا إضافات مزيفة لمتصفحات الإنترنت تدعي أنها تحتوي على أدوات للذكاء الاصطناعي التوليدي. وشدد جاي روزن على أن بعض هذه الإضافات كان يحوي فعلا مثل هذه الأدوات “ربما ليبدو موثوقا في أعين منصات التحميل أو المستخدمين”، لكن بمجرد تثبيتها على الجهاز، فإنها تسمح لقراصنة المعلوماتية باختراق البيانات الشخصية، على سبيل المثال. وقالت أسوشيتد برس في تقريرها إن هناك بالفعل مجموعات كبيرة من المستخدمين يبذلون قصارى جهدهم لخداع روبوتات الذكاء الصناعي وتسليط الضوء على عيوبها. Thumbnail بعض من هذه المجموعات هي عبارة عن ما يطلق عليه اسم “الفرق الحمراء” وهي مجموعات مرخصة من قبل الشركات تعمل على شن هجمات على نماذج الذكاء الاصطناعي لاكتشاف نقاط ضعفها. لكن هناك أيضا مجموعات من الهواة الذين يحاولون التباهي باختراقهم لهذه الروبوتات التوليدية، وتشير شودري إلى إن الأمر لا يتعلق فقط بالعثور على العيوب، ولكن حول اكتشاف الطرق المناسبة لإصلاحها. وكان البيت الأبيض نبّه في السابق الرؤساء التنفيذيين لشركات التكنولوجيا الأميركية العملاقة إلى مسؤوليتهم “الأخلاقية” لحماية المستخدمين من المخاطر الاجتماعية المحتملة للذكاء الاصطناعي. ودعت نائبة الرئيس الأميركي كامالا هاريس رؤساء شركات غوغل ومايكروسوف و”أوبن أي.آي” وأنثروبيكا لاجتماع في وقت لا يزال تنظيم الذكاء الاصطناعي البالغ الأهمية يقع على عاتق الشركات نفسها. وأشارت إلى أن الذكاء الاصطناعي قادر “على تحسين حياة الناس والتصدي لكبرى التحديات التي يواجهها المجتمع”، لكنه قادر أيضا “في الوقت عينه (…) على أن يزيد بشكل هائل المخاطر حيال الأمن والسلامة، وينتهك الحقوق المدنية والخصوصية، ويقوّض ثقة الجمهور وإيمانه بالديمقراطية”.

مشاركة :