الذكاء الاصطناعي الذي أبدعه الانسان ليستفيد من محاسنه في مجالات عديدة يمكن أن يكون ضارا إذا استخدم بنوايا مبيتة ومضللة. فاستنساخ أصوات لتمرير تصريحات ومعلومات زائفة منسوبة إلى السياسيين يمكن أن يورطهم في مواقف لا تمت لهم بصلة خاصة أنها تنتشر انتشار النار في الهشيم. توماس شبارو مع الذكاء الاصطناعي تعمل تقنية التزييف العميق على استنساخ أصوات السياسيين بشكل لافت. وتبرز خطورة الأمر بشكل خاص خلال الحملات الانتخابية، وغالبا ما يكون من الصعب كشف التزييف، غير أن هناك مهارات تساعد على ذلك. فهل صرّح الرئيس الأميركي الأسبق باراك أوباما أن الديمقراطيين كانوا وراء محاولة اغتيال فاشلة لخلفه دونالد ترامب؟ تم تداول عدة تسجيلات صوتية في الولايات المتحدة، يُزعم أنها لأوباما يتحدث مع مستشاره السابق، ديفيد أكسيلرود، عن الانتخابات الرئاسية الأميركية المقبلة. وفي إحدى المقاطع، يُسمع صوت يشبه صوت أوباما يقول، “كانت فرصتهم الوحيدة وهؤلاء الأغبياء أضاعوها. لو تمكنوا فقط من التخلص من ترامب، لكنا ضمنّا فوزهم ضد أي مرشح جمهوري”. هذا التسجيل مزيف، وقد تم توليد الصوت بشكل مصطنع بمساعدة الذكاء الاصطناعي. ونشرت “نيوز غارد” وهي جهة رقابية مختصة بتتبع المعلومات المضللة والإعلام في الولايات المتحدة، تحليلًا للتسجيلات الصوتية المنسوبة إلى باراك أوباما. وقد استخدمت عدة أدوات تعتمد على الذكاء الاصطناعي، وقامت بمقابلة خبير رقمي، كما تواصلت مع متحدث باسم أوباما، قبل التوصل إلى أن التسجيل بالفعل مزيف. وليس أوباما السياسي الوحيد الذي تعرّض لتزييف صوته. ففي وقت سابق من هذا العام، تم إنشاء تسجيل صوتي بواسطة الذكاء الاصطناعي لصوت الرئيس الأميركي جو بايدن يحث الناخبين في الانتخابات التمهيدية بولاية نيو هامبشير على عدم التصويت. وفي سلوفاكيا، تم نشر تسجيل صوتي مزيف لشخصية ليبرالية هو السياسي ميخال شيميتشكا. وفي المملكة المتحدة، وقع عمدة لندن صادق خان ضحية لتسجيل زائف بالذكاء الاصطناعي. ويمكن أن تكون المقاطع الصوتية المزيفة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي ضارة بشكل خاص خلال الانتخابات لأنها سهلة الإنشاء والنشر، لكن هذه المقاطع الصوتية المزيفة أصعب في الكشف عنها من الأشكال الأخرى للمعلومات المضللة. المقاطع الصوتية المزيفة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي يمكن أن تكون ضارة بشكل خاص خلال الانتخابات لأنها سهلة الإنشاء والنشر وتقول آنا شيلد، خبيرة الإعلام والاتصال بفريق الابتكار في دويتشه فيله، إنها “تتطلب بيانات تدريبية وقدرات بعلوم الحاسوب مقارنة بالفيديوهات المزيفة لعرض نتائج شبه واقعية”. وتقوم آنا بفحص تأثير المقاطع الصوتية المزيفة، مع زميلتها جوليا باير، وتوضح سبب شعبيتها المتزايدة بسرعة، إذ تقول، “لقد تعدّدت استخداماتها، من المكالمات الآلية إلى الرسائل الصوتية والتعليقات في الفيديو”. من جانبه يؤكد نيكولاس مولر، مهندس التعلم الآلي في معهد فراونهوفر للأمن التطبيقي والمندمج في ألمانيا، إن المقاطع الصوتية المزيفة أصعب قليلاً في التعرف عليها من مقاطع الفيديو المزيفة، لأن لدينا ببساطة عددًا أقل من الأدلة”. ويوضح أنه في الملفات الصوتية، هناك عدد أقل من العناصر التي يمكن للناس الاعتماد عليها لاكتشاف ما إذا كان التسجيل أصليًا أم لا. في هذه الحالة، كيف يمكن التعامل مع ملف صوتي نشكّ أنه حقيقي؟ يمكن أن يكون أحد الحلول هو الجمع بين تقنيات التحقق وبين استخدام برامج الذكاء الاصطناعي المتخصصة في تحديد المقاطع الصوتية المزيفة. إحدى الطرق للتحقق مما إذا كانت التسجيلات الصوتية حقيقية أم لا هي فحص الملف بشكل دقيق بحثًا عن أدلة قد تشير إلى تدخل الذكاء الاصطناعي. لا يوجد حل بنقرة واحدة يمكنه المساعدة في اكتشاف التلاعب بالصوت وفي المثال المذكور لباراك أوباما، يمكننا مقارنة الملف الصوتي المشبوه بملف صوتي أصلي لأوباما، لأجل العثور على أيّ انحرافات محتملة عن طريقة حديث أوباما بشكل طبيعي. ويمكن أن يشمل ذلك الاختلافات في النطق، أو التوقفات غير الطبيعية، أو أنماط التنفس غير الواقعية. ليس من السهل العثور على هذه الأدلة بالنسبة إلى المستمعين غير المدربين، لكن تم تصميم العديد من الأدوات لمساعدة الناس في ممارسة التعرف على هذا النوع من المعلومات المضللة، ومن هذه الأدوات مشروع “ديغر” لاكتشاف التزييف العميق، الذي تم تصميمه بالتعاون مع دويتشه فيله. وقد طور المشروع تمارين عملية لمساعدة الناس على تطوير مهارات الاستماع النقدي لديهم. ويمكن كذلك استخدام برامج مدعومة بالذكاء الاصطناعي قادرة على اكتشاف المقاطع الصوتية المزيفة. وفي مثالنا مع الصوت الاصطناعي لأوباما، استخدمت منصة “نيوز غارد” برامج مثل “ترو ميديا”، حيث يمكنك وضع رابط من وسائل التواصل أو رفع ملف صوتي أو صورة أو فيديو، ويقوم البرنامج بتحليل هذا الملف. وفي الوقت نفسه، طور معهد فراونهوفر منصة “ديب فيك توتال” حيث يمكن للمستخدمين تحميل الملفات الصوتية المشبوهة لتحليلها. وتُقيَّم جميع الملفات المحملة على “مقياس التزوير”، الذي يشير إلى احتمالية أن يكون الملف مصطنعًا. المقاطع الصوتية المزيفة أصعب قليلاً في التعرف عليها من مقاطع الفيديو المزيفة لكن من المهم التأكيد على أن أدوات الكشف عن التزييف ليست معصومة من الخطأ. ففي حين يمكنها تقدير احتمالية أن يكون الملف مولدًا بواسطة الذكاء الاصطناعي، إلا أنها لا تكون صحيحة دائمًا. ولهذا السبب ينبغي استخدام هذه الأدوات دائمًا بحذر، كجزء من عدة خطوات للتحقق. من الوسائل الأخرى، تصفّح مواقع ومنصات تدقيق الحقائق، لمعرفة ما إذا كان قد تم التحقق من حقيقة الملف الصوتي موضع الشك. وقد طورت عدة وسائل إعلامية أيضًا أدوات لتحديد المقاطع الصوتية المزيفة، مثل “فيريفيك أوديو” التابعة لشركة “بريزا” الإعلامية العالمية في إسبانيا، والتي تهدف إلى اكتشاف التزييف في وسائل الإعلام الناطقة بالإسبانية. وأوضح خوسيه غوتيريز من “بريزا ميديا” أن الأداة تعتمد على عمليتين موجهتين بالذكاء الاصطناعي: بينما تقوم الأولى بمقارنة الملفات الصوتية المشبوهة مع تسجيلات صوتية أصلية للشخص نفسه، تحلل الثانية الميزات الصوتية مثل الطبقة الصوتية، لكنه يؤكد أن المنصة لا تعطي إجابات حاسمة تمامًا. وإذا كان كل هذا يبدو معقدًا أو تقنيًا أكثر من اللازم، فإنه تمكن العودة إلى تقنيات التحقيق التقليدية، ومن ذلك البحث في الأخبار ومعرفة ما إذا كان هناك أخبار حول الموضوع، والتحقق من قنوات التواصل الاجتماعي للشخص والبحث عن سياق إضافي في مصادر الأخبار الموثوقة. في النهاية، الأمر كله يتعلق باستخدام مجموعة متنوعة من التقنيات، كما يشير فريق الابتكار في دويتشه فيله، إذ “لا يوجد حل بنقرة واحدة يمكنه المساعدة في اكتشاف التلاعب بالصوت”.
مشاركة :