مكالمة من هاتف صديقك أو أحد أفراد أسرتك، يخبرك فيها بحاجته إلى العون المالي، تسمع صوته أو عبر دردشة فيديو وتتأكد من رقم هاتفه، وتسارع لنجدته وتدفع. يكلمك أحد المجرمين ليخبرك أن ابنك تعرض للخطف ويسمعك صوته ليحثك على دفع الفدية، وإلا سيتعرض للقتل، تخاف على ابنك، فتدفع. تلك أمور واردة الحدوث لأي شخص، ومن الطبيعي أن تحصل، لكن في وقتنا الحالي، وما يليه من أوقات تتعاظم فيه مقدرة الذكاء الاصناعي، فإن المواقف المذكورة، قد لا تكون سوى عمليات احتيال لاستنزاف أموالك. وقد تعرض بالفعل العام الجاري عدد من الأشخاص للاحتيال بتلك الطرق المذكورة، ودفع بعضهم أموالًا طائلة قبل أن يدرك أنه لم يكن يكلم سوى آلة ذكية يقف ورائها مجرم. يستخدم المحتالون عددًا من الطرق بأدوات الذكاء الاصطناعي لإقناع ضحاياهم حتى يجهزوا على أموالهم. يقرر أستاذ الرقمية بجامعة كاليفورنيا، هاني فريد، في حديثه لواشنطن بوست، أن برامج استنساخ الصوت بالذكاء الاصطناعي تشبه إلى حد التماثل الصوت الحقيقي للشخص المستنسخ صوته. ويضيف أن نشر الشخص فيديو أو مقطع صوتي على وسائل التواصل الاجتماعي لمدة 30 ثانية فقط، يجعله عرضة لاستنساخ صوته بسهولة. مثل استنساخ الصوت، يمكن استنساخ الصورة والفيديو، بحيث يظهر المحتال أمامك بأي وجه يريده أو يرسل لك أي صورة معدلة أو مصنوعة بالذكاء الاصطناعي. ويمكن أن يحصل المحتالون على الصور التي يحتاجوها من على حسابات الششخص على وسائل التواصل أو باختراق هاتفه. وبحسب ما ينقله موقع "I believe scienc" فإن التكنولوجيا تسمح للمحتالين بالتلاعب بأرقام هواتف العائلة والأصدقاء، الأمر الذي يسمح للمجرمين بإقناع ضحاياهم بأن المكالمة قادمة فعلًا من الشخص الذي ينتحلون صفته. وقع العام الجاري فقط ضحايا كثر لعمليات الاحتيال بالذكاء الاصطناعي، وأبرزها: واكتشف الرجل تعرضه للخداع بعدما اتصل بصديقه بعد أن حول المال ليتأكد من استلامه له، ليفاجأه بأنه لا يعرف عن ذلك شيئًا، ومن ثم أبلغا السلطات التي نجحت بإيقاف التحويل ورد 3.4 مليون يوان للرجل المخدوع. وبعد أن أسمعهما صوت ابنهما المصنوع بتقنيات الذكاء الاصطناعي، طلب منهما تحويل 21 ألف دولار، ليفعلا من فورهما، بحسب ما نشرته واشنطن بوست. وأدرك الزوجان تعرضهما للاحتيال بعد أن اتصل بهما ابنهما في المساء في مكالمة روتينية، ليعرفا أنهما وقعا ضحية للنصب بالذكاء الاصطناعي. يحذر الخبراء من تصاعد عمليات الاحتيال بواسطة الذكاء الاصطناعي، خاصة مع ما يتوقع من تطوره في المستقبل القريب.وقال الشريك المؤسس لشركة أبل، ستيف وزنياك، في حديثه لشبكة "سي إن إن" إن الذكاء الاصطناعي قد يعقد من مهمة اكتشاف عمليات الاحتيال والمعلومات المضللة. كما أكد ضرورة ضبط قطاع الذكاء الاصطناعي بوضوح لتجنيب الأشخاص من الوقوع ضحايا لسوء استخدامه. حرصًا على حماية جميع مواطني #المملكة من الاستغلال و #الاحتيال_الإلكتروني توفر منصة #أبشر خدمة الإبلاغ عن #الجرائم_الإلكترونية.. تعرف على خطوات الإبلاغللتفاصيل | https://t.co/YThOoQ3Wwl#اليوم pic.twitter.com/QKT8weVmlE— صحيفة اليوم (@alyaum) January 20, 2023 لتجنب التعرض للاحتيال بواسطة الذكاء الاصطناعي ينصح موقع "I believe scienc" بالحذر من المكالمات الغريبة، وإغلاق الخط فور الاشتباه في المكالمة، ثم اتصل بمن تعتقد أنه حادثك على رقمه الخاص أو وسيلة تواصل مؤكدة. #صحيفة_اليوم | #انفوغرافيكس#احم_نفسك من #الاحتيال #المالي #صحيفة_اليوم #مستقبل_الإعلام_يبدأ_من_اليوم https://t.co/nghb40DDn8 pic.twitter.com/U3u4Xj4rHj— صحيفة اليوم (@alyaum) May 26, 2022 وكذلك حال اتصل بك شخص عبر تقنية الفيديو، تأكد منه بالتواصل معه بعد إنهاء المكالمة، وقبل أن تتخذ أي خطوة قد تندم عليها. كما ينصح موقع "ACFE INSIGHTS" المتخصص في كشف عمليات الاحتيال بالتعلم حول الاحتيال الذكي وكيفية الحماية منه ومعرفة علاماته، حتى يقدر الشخص على معرفة إذا ما كان يتعرض للخداع أم انه في المنطقة الآمنة.
مشاركة :