دراسة تكشف إمكانية تصاعد عمليات الاحتيال الصوتي عبر تقنيات الذكاء الاصطناعي

  • 5/8/2023
  • 00:00
  • 5
  • 0
  • 0
news-picture

حذر خبراء من أن تقنية الذكاء الاصطناعي تغذي انفجارا في عمليات احتيال باستنساخ الصوت. ويمكن للمحتالين الآن تقليد صوت الضحية باستخدام مقتطف صوتي مدته ثلاث ثوان فقط، وغالبا ما يتم سرقته من ملفات تعريف الوسائط الاجتماعية. كما يتم استخدامه للاتصال بصديق أو أحد أفراد الأسرة لإقناعهم بأنهم في مأزق وبحاجة ماسة إلى المال. ويقول واحد من كل أربعة بريطانيين، إنه أو شخصا يعرفه قد استُهدف بعملية الاحتيال هذه، وفقا للمتخصصين في الأمن السيبراني McAfee. ومن المقبول تصديق أن غالبية المتضررين اعترفوا بأنهم فقدوا أموالا نتيجة لذلك، مع تكبد حوالي ثلث الضحايا أكثر من 1000 جنيه إسترليني. وقال تقرير صادر عن الشركة إن الذكاء الاصطناعي قد “غير اللعبة بالفعل لمجرمي الإنترنت”، مع توفر الأدوات اللازمة لتنفيذ عملية الاحتيال مجانا عبر الإنترنت. ويقود الخبراء والأكاديميون والرؤساء من جميع أنحاء صناعة التكنولوجيا الدعوات لتشديد التنظيم على الذكاء الاصطناعي لأنهم يخشون أن يخرج القطاع عن السيطرة. وقال تقرير McAfee عن “الدجال الاصطناعي” إن استنساخ صوت شخص ما أصبح “أداة قوية في ترسانة مجرمي الإنترنت” – وليس من الصعب العثور على الضحايا. ووجدت دراسة استقصائية أجريت على أكثر من 1000 بالغ في المملكة المتحدة أن نصفهم شاركوا بياناتهم الصوتية عبر الإنترنت مرة واحدة على الأقل في الأسبوع على وسائل التواصل الاجتماعي أو الملاحظات الصوتية.

مشاركة :