التزييف العميق هو مقاطع فيديو مزيفة أو تسجيلات صوتية تبدو وكأنها حقيقية. إذ كانت في السابق تستخدم في استوديوهات المؤثرات الخاصة لهوليوود ووكالات الاستخبارات التي تنتج البروباجندا، مثل الـ CIA ويمكن لأي شخص اليوم أن يقوم بتنزيل برامج الـ deepfake وإنشاء مقاطع فيديو وهمية مقنعة في وقت فراغه. وحتى الآن، اقتصرت مقاطع الـ«deepfakes» على الهواة الذين يشوهون صورة المشاهير ويجعلون السياسيين يقولون أشياء مضحكة. ومع ذلك، سوف يكون من السهل إنشاء مجموعة من الإنذارات للطوارئ تحذر من وقوع هجوم وشيك أو تعطيل انتخابات قريبة بمقطع فيديو مزيف أو تسجيل صوتي لأحد المرشحين قبل أيام من بدء التصويت. كما حدث مع مؤسس «Facebook» مارك زكربرغ» حين تم تزييف خطابه. كيف يعمل التزييف العميق؟ رؤيتنا الشيء يعني تصديقنا له كما يقول المثل القديم، لكن الحقيقة هي أن الإيمان والتصديق بالشيء هو رؤيته فالبشر يبحثون عن معلومات تدعم ما يريدون تصديقه وتتجاهل الباقي. اختراق هذه النزعة البشرية يمنح الجهات الفاعلة الخبيثة الكثير من القوة. نرى هذا بالفعل في المعلومات المضللة (ما يسمى «الأخبار المزيفة») التي تخلق زيفًا بشكل متعمد والتي تنتشر بعد ذلك تحت ستار الحقيقة. وبحلول الوقت الذي يبدأ فيه مدققون الحقائق بالاحتجاج، يكون الأوان قد فات. تستغل الـ Deepfakes هذا الاتجاه الإنساني باستخدام شبكات الخصومة التوليدية (GANs) حيث يقوم نموذجان لتعلم الآلة (ML) بالعراك. يقوم نموذج تعليمي إلى واحد بالتدريب على مجموعة بيانات ثم يقوم بإنشاء فيديوات مزورة، بينما يحاول الآخر اكتشاف التزوير. النموذج المزور يقوم بخلق المقاطع المزيفة حتى لا يستطيع نموذج تعلم الآلة الآخر اكتشاف التزوير. كلما كبرت مجموعة بيانات التدريب، أصبح من السهل على المزور إنشاء Deepfakes يمكن تصديقها. هذا هو السبب في استخدام مقاطع الفيديو الخاصة بالرؤساء السابقين ومشاهير هوليوود بشكل متكرر في هذا الجيل الأول المبكر من ملفات الفيديو، وهنالك الكثير من مقاطع الفيديو المتاحة للعلن لتدريب المزور. الـ Deepfakes الضحلة هي مشكلة أيضا لقد اتضح أن مقاطع الفيديو منخفضة التكنولوجيا يمكن أن تكون بنفس فعالية الـ Deepfakesكمعلومات مضللة، كما يوضح الجدل الدائر حول الفيديو الذي تمت معالجته عن مواجهة الرئيس ترامب مع مراسل الـ CNN جيم أكوستا في مؤتمر صحفي في نوفمبر. يظهر الفيديو بوضوح امرأة متدربة في البيت الأبيض تحاول أخذ الميكروفون من أكوستا، لكن التعديل اللاحق جعله يبدو وكأن مراسل الـ CNN قد هاجم المتدربة. يؤكد هذا الحادث المخاوف من إمكانية التلاعب بالفيديو بسهولة لتشويه هدف ما من اختيار المهاجم، مراسل، سياسي، رجال الأعمال، علامة تجارية، على عكس ما يسمى بـ«deepfakes»، إذ يضع التعلم الآلي الكلمات في أفواه الناس، فإن مقاطع الفيديو ذات التقنية المنخفضة قريبة جدًا من الواقع إلى درجة أنها تمزج الخط الفاصل بين الصواب والخطأ. (الخوف، عدم اليقين والشك (fear uncertainty and doubt) «FUD» مألوف لدى الأشخاص الذين يعملون في الخنادق الأمنية، ونشر هذا الـ FUD كسلاح على نطاق واسع يمكن أن يلحق أضرارا بالغة بالأعمال التجارية والفرد كذلك. الدفاع ضد هجمات الـ FUD صعب للغاية. بمجرد أن يتم زرع الشك في أن أكوستا هاجم المتدربة في البيت الأبيض، فإن جزءا غير تافه من المشاهدين لن ينسى تلك التفاصيل وسوف يشك في أن الأمر قد يكون صحيحًا.
مشاركة :