دراسة: نماذج إنتاج الصور بالذكاء الاصطناعي تسرب البيانات

  • 6/20/2023
  • 12:28
  • 4
  • 0
  • 0
news-picture

  كشفت ورقة بحثية حديثة كيف يمكن أن تتسرب البيانات من منصات إنشاء الصور التي تستند في عملها على نماذج الذكاء الاصطناعي التوليدي، مثل "DALL-E أو Imagen أو Stable Diffusion". الورقة البحثية أعدها مجموعة باحثين في جامعات أمريكية وسويسرية بالتعاون مع شركة "غوغل" الأمريكية. وقالت الورقة البحثية، إن هذه المنصات تعمل بالطريقة نفسها حيث تعتمد على جانب المستخدم الذي يكتب مطالبة نصية محددة، ويحصل على صورة لها في ثوان، في حين دربت تلك النماذج على عدد كبير جدا من الصور التي تحمل وصفًا محددًا سابقًا. اقرأ أيضًا: كيف تحاول أوروبا وأمريكا السيطرة على الذكاء الاصطناعي؟ وتكمن فكرة الشبكات العصبية في قدرتها على إنشاء صور فريدة وجديدة بعد معالجة كمية هائلة من بيانات التدريب، ولكن تظهر الدراسة الجديدة أن هذه الصور ليست دائمًا فريدة، وفي بعض الحالات يمكن أن تقوم الشبكة العصبية بإعادة إنتاج صور مطابقة تمامًا لصورة سابقة استخدمت في التدريب، الأمر الذي يعني أن الشبكات العصبية قد تكشف عن المعلومات الخاصة دون قصد. وتعارض تلك الدراسة وجهات النظر التي تتحدث عن أن نماذج الذكاء الاصطناعي المستخدمة في توليد الصور لا تحفظ بيانات التدريب الخاصة بها، وأن بيانات التدريب قد تظل خاصة إذا لم يكشف عنها. وأولى المشاركون في الدراسة لنماذج التعلُّم الآلي التي يعمل بها أنظمة الذكاء الاصطناعي التوليدي اهتمامًا خاصًّا، حيث عملوا على تشويه بيانات التدريب لروبوتات الذكاء الاصطناعي عن طرق إضافة تشويش، وبعدها تدرب الشبكة العصبية على استعادة هذه الصور إلى حالتها الأصلية. ووجد الباحثون، أن تلك الطريقة أنتجت صورًا ذات جودة مقبولة، ولكن وجدوا أن نماذج الذكاء الاصطناعي تميل لتسريب البيانات، وقد تكون الشبكات كسولة في بعض الأحيان، وتنتج صورًا من مجموعة التدريب التي تتضمن صورًا لمنازل وسيارات وأشخاص ما يجعل بياناتهم مسربة.

مشاركة :