نشرت صحيفة ديلي ميل البريطانية تقرير جديد، يمكن لبرامج تقنية Deep Fake، تقليد صوت شخص ما بدرجة من الدقة يمكن أن تخدع كلًا من البشر والأجهزة الذكية. قام الباحثون في مختبر الأمن والخوارزميات والشبكات والبيانات SAND بجامعة شيكاغو باختبار برامج التوليف الصوتي العميق المتاحة على موقع مجتمع المطورين مفتوح المصدر Github لمعرفة ما إذا كان بإمكانهم تخطي برامج الحماية التي تعتمد على نظام أمان بخاصية التعرف على الصوت في تطبيقات Amazon's Alexa وWeChat وMicrosoft Azure. واكتشف الباحثون أن أحد البرامج، والذي يُعرف باسم SV2TTS، يحتاج فقط إلى خمس ثوانٍ لإنتاج مقطع صوتي يتميز بتقليد مقبول لأي شخص. تم وصف SV2TTS بأنه صندوق أدوات استنساخ الصوت في الوقت الفعلي"، ولاحظ الباحثون أنه مقاطع الصوت التي تم تقليدها باستخدام البرنامج تمكنت من خداع Microsoft Azure بنسبة وصلت إلى حوالي 30% لكنه حصل على نسب أفضل ما في كل من WeChat وAmazon Alexa تقريبًا ثلثي الوقت، أو 63% من المرات. كما أوضح الباحثون أن المقاطع الصوتية، التي تم تقليدها باستخدام تقنية ديب فيك، استطاعت خداع آذان البشر، إذ لم يستطع 200 متطوع من التمييز بين الأصوات الحقيقية وبين ما تم تزييفه ببرامج ديب فيك بنسبة 50%، مع ملاحظة أن التزييف العميق كان أكثر نجاحًا في تقليد أصوات النساء وأصوات ناطقي اللغة الإنجليزية من أصحاب الأصول الأجنبية. اقرأ أيضًا : بعد «فيسبوك».. بلاغات عن أعطال في تطبيق إنستغرام حول العالم
مشاركة :