تحذيرات أمنية من عمليات احتيال باستخدام تقنية الصوت الاصطناعي

  • 10/21/2024
  • 10:46
  • 2
  • 0
  • 0
news-picture

حذر مسؤولون أمنيون أمريكيون من تطور ملحوظ في عمليات الاحتيال التي تعتمد على تقنية الصوت الاصطناعي، بعد تسجيل حالات متعددة تضمنت خداع ضحايا عبر تقليد أصوات أقاربهم أو أصدقائهم أو أشخاص يتعاملون معهم في مشاريع تجارية. وأوضح المسؤولون أن هذه العمليات الاحتيالية شهدت انتشارًا في أمريكا ودول أخرى، حيث استغل المحتالون تقنيات متقدمة لتضليل الضحايا. وبيّنوا أن كبار السن يُعدون من الفئات الأكثر استهدافًا، إذ يتلقى بعضهم اتصالات بأصوات مزيفة تحاكي صوت الزوجة أو الأبناء أو مسؤولين موثوقين، مع ادعاء وجود حالة طارئة تستدعي طلب المال أو الحصول على معلومات بنكية لحل مشكلات مزعومة في حساباتهم. وأشار المحققون إلى أن هذه الأساليب أصبحت أكثر شيوعًا بفضل استخدام المحتالين للتكنولوجيا الحديثة، ما يجعل قصصهم تبدو مقنعة للغاية. وأكدوا أن الخوف والقلق الذي يشعر به الضحايا غالبًا ما يدفعهم إلى التصرف بسرعة دون التحقق من صحة المعلومات. وشدد المسؤولون على أهمية عدم إرسال الأموال أو تقديم معلومات بنكية بناءً على مكالمات هاتفية غير موثوقة، داعين إلى التحقق المباشر من الأشخاص المعنيين قبل اتخاذ أي إجراء. كما أوصوا بضرورة تعزيز الوعي حول هذه الأساليب الاحتيالية لحماية المجتمع من الوقوع ضحية لمثل هذه الأنشطة الإجرامية.

مشاركة :