هل ينقذنا الذكاء العاطفي من تهديدات الذكاء الاصطناعي التوليدي؟

  • 11/27/2024
  • 00:00
  • 1
  • 0
  • 0
news-picture

تخيل أنك تستقبل مكالمة هاتفية عاجلة من حفيدك، وصوته يرتجف وهو يخبرك بتورطه في حادث مروع ويحتاج إلى مبلغ مالي كبير فورًا لدفع كفالة، فيسيطر عليك الفزع، وتتحرك بسرعة لإنقاذه. هذا السيناريو ليس مجرد قصة خيالية، بل واقع حدث مع جين، وهي مواطنة مسنة تبلغ من العمر 75 عامًا من ريجينا، في كندا، وتحت وطأة الصدمة والقلق، سارعت إلى البنك لسحب المبلغ المطلوب، لتكتشف لاحقًا أنها وقعت ضحية لعملية احتيال متقنة استغلت الذكاء الاصطناعي لتقليد صوت حفيدها. وتشير التوقعات إلى أن الذكاء الاصطناعي التوليدي سيقوم بأتمتة ما يقرب من 70% من العمليات التجارية العالمية بحلول عام 2030، مما يفتح آفاقًا جديدة للإنتاجية والكفاءة، ويثير هذا التحول الكبير حماس القادة في مختلف القطاعات ، إذ يتصورون إمكانيات لا حصر لها لتطوير أعمالهم. ولكن في الوقت نفسه، يلوح في الأفق جانب آخر مظلم للذكاء الاصطناعي التوليدي، وهو قدرته على التلاعب بالبشر، فمع تطور قدراته على توليد محتوى صوتي ومرئي مقنع ويبدو واقعي جدًا، يخشى الخبراء من استغلال هذه التقنية في خداع الناس. ولكن إلى أي مدى وصلت تهديدات التزييف العميق، وما دور دور الذكاء العاطفي في مواجهة هذه  التهديدات؟ التزييف العميق مشكلة متنامية: لا تقتصر قصة جين على حالتها الفردية، بل هي جزء من توجه متزايد لعمليات الاحتيال التي تستغل العواطف البشرية، فالاحتيال العاطفي الرقمي، المدعوم بتقنيات الذكاء الاصطناعي التوليدي المتطورة مثل التزييف العميق ، يشكل تهديدًا متزايدًا على الأفراد والشركات أيضًا. إذ تشير الدراسات الحديثة إلى أن واحد من كل 10 مسؤولين تنفيذيين يقولون إن شركاتهم واجهت بالفعل تهديدات التزييف العميق خلال المدة الأخيرة، والأمر المقلق هو أن نسبة تبلغ 25% من القادة لا يزالون غير مدركين لخطورة هذه التهديدات المتزايدة. فمن خلال استهداف المدراء التنفيذيين بتقنيات تقليد الأصوات والصور والفيديو بشكل واقعي، يمكن للمحتالين الاستيلاء على معلومات حساسة، وسرقة الأموال، وتوجيه اتخاذ القرارات، مما يعرض الشركة لخسائر مالية فادحة وتشويه سمعتها. تحدي اكتشاف المحتوى المزيف المولد بالذكاء الاصطناعي: يشكل اكتشاف المحتوى المزيف الذي يولده الذكاء الاصطناعي لغزًا محيرًا، إذ توجد العديد من الأدوات التي تدعي قدرتها على كشف هذا النوع من المحتوى، ولكن دقتها لا تزال محدودة. وفي الوقت نفسه تتطور تقنيات التلاعب بالمحتوى بصورة مستمرة، فقد ظهرت أدوات جديدة قادرة على إزالة العلامات المائية ، التي تشير إلى أن المحتوى مولد بالذكاء الاصطناعي. وفي حين توجد أدوات واعدة مثل FakeCatcher من إنتل، لكن تطبيقها على نطاق واسع لا يزال يواجه تحديات كبيرة. وفي ظل التطور السريع لتقنيات الذكاء الاصطناعي التوليدي، يبقى الشك البشري هو الحصن الأخير لحماية أنفسنا من المحتوى المزيف. دور الذكاء العاطفي في مواجهة تهديدات الذكاء الاصطناعي التوليدي: الذكاء العاطفي؛ هو القدرة على فهم مشاعرك ومشاعر الآخرين، وإدارتها وتوجيهها بشكل فعال، ويشمل الذكاء العاطفي مجموعة من المهارات التي تساعدنا في التواصل بشكل أفضل، وبناء علاقات قوية، والتغلب على التحديات، وتحقيق أهدافنا. لذلك يبرز دور الذكاء العاطفي كأحد أهم الأدوات التي يمكن للأفراد والشركات الاعتماد عليها لمواجهة تهديدات الذكاء الاصطناعي التوليدي المتزايدة. وإليك 3 طرق يمكن يساعدنا بها: 1- كشف التلاعب العاطفي: تشير الإحصائيات إلى أن نسبة تبلغ 74% من خروقات البيانات ناجمة عن أخطاء بشرية ناتجة عن العواطف، مثل الاستعجال أو الثقة المفرطة، إذ يستغل المهاجمون هذه الثغرات البشرية من خلال استهداف العواطف البشرية الأساسية، مثل الخوف، والطمع، والفضول. وقد سهل الذكاء الاصطناعي الأمر على المجرمين السيبرانيين، إذ ساعدهم في تخصيص عمليات الاحتيال بنحو كبير، فمن خلال جمع بيانات الموظفين وتحليلها وكذلك تحليل المحتوى الخاص بالشركة، يمكنهم الآن صنع مقطع فيديو مزيف لأي شخص في أقل من ثماني دقائق وبمبالغ زهيدة ! ولهذا السبب، فإن أول خطوة لحماية أنفسنا هي زيادة الوعي بهذه التهديدات. يحتاج الموظفون إلى فهم كيف يمكن للذكاء الاصطناعي الاستفادة من المشاعر للتغلب على القرارات العقلانية، فقد أظهرت لنا تجربة أحد مديري الأمن السيبراني كيف يمكن للمحتالين استغلال مشاعرنا للتأثير في قراراتنا. فقد تلقى رسالة عبر تطبيق واتساب وتسجيل صوتي مزيف من محتال ينتحل شخصية الرئيس التنفيذي للشركة، ويناقش تفاصيل مشروعة حول صفقة تجارية عاجلة. في البداية، سيكون الضغط العاطفي من سلطة أعلى سببًا في رد الفعل السريع منه للتجاوب مع المحتال، ولكن، بفضل معرفته بالأنظمة والروتينات في الشركة، تمكن من اكتشاف الخدعة. فقد لاحظ بعض العلامات المشبوهة التي تتعارض مع الإجراءات الرسمية المتبعة في الشركة، مثل استخدام قنوات غير رسمية لنقل معلومات حساسة، مما أثار لديه الشكوك حول شرعية الطلب. وللحماية من التلاعب، يجب على القادة الاستثمار في تدريب موظفيهم على تطوير ذكائهم العاطفي، فمن خلال ورش العمل التي تركز في فهم الدوافع العاطفية وتدريبهم على التفكير الإبداعي، يمكن للموظفين اكتشاف محاولات التلاعب بسرعة واتخاذ قرارات أكثر استنارة، مما يساهم في حماية الشركات من المخاطر. 2- التحليل النقدي للقرارات:  لا يكفي أن نفهم أن عواطفنا تؤثر في قراراتنا، بل يجب علينا أن نستكشف كيف يحدث ذلك بالضبط. غالبًا ما تدفعنا الحماسة أو الفضول إلى اتخاذ قرارات متسرعة دون تقييم كامل للعواقب. هذا الأمر يصبح أكثر خطورة في عصر الذكاء الاصطناعي، إذ يمكن أن يؤدي إلى أخطاء جسيمة. وتُعدّ حادثة نشر مجلة ألمانية مقابلة بواسطة الذكاء الاصطناعي مع مايكل شوماخر – بطل العالم في سباقات (الفورمولا- 1) سبع مرات، الذي يعاني إصابات خطيرة في الرأس في حادث تزلج تعرض له  ديسمبر 2013، ولم يظهر للجمهور منذ ذلك الحين – دون موافقته مثالًا على غياب التفكير النقدي، فقد تضمنت المقابلة اقتباسات مزيفة تناقش حالته الطبية وحياته العائلية منذ عام 2013. وقد دفعت الرغبة في تحقيق خبر حصري الصحفيين إلى تجاهل العواقب الأخلاقية والقانونية لتصرفاتهم، وأدى ذلك إلى تعرضهم للمساءلة القانونية، والإضرار بسمعة المجلة. وفي هذه الحالة سيكون التفكير النقدي أداة قوية لبناء الوعي الأخلاقي، فمن خلال مشاركة الأفكار والآراء، يمكن للأفراد اكتساب وجهات نظر جديدة وتحدي افتراضاتهم. ويُعدّ أسلوب ( fly on the wall ) هو تقنية فعالة لتشجيع التفكير النقدي، في هذا الأسلوب، يعرض الشخص مخرجات الذكاء الاصطناعي على المجموعة، ثم يُطلب من الأعضاء تحليلها وتقييمها من منظور أخلاقي، وتسمح هذه التقنية للأفراد بتحديد التحيزات والافتراضات الكامنة في الذكاء الاصطناعي، وتقييم مدى ملاءمتها للقيم والمبادئ الأخلاقية. 3- تحويل ردود الفعل السريعة إلى استجابات مدروسة: يُعدّ امتلاك الوعي بالمخاطر التي يطرحها الذكاء الاصطناعي هو الخطوة الأولى، ولكن تحويل هذا الوعي إلى أفعال ملموسة هو ما يضمن حمايتنا، فحتى مع أفضل النوايا، يمكن أن يتغلب سحر الذكاء الاصطناعي على حكمنا السليم ويدفعنا إلى اتخاذ قرارات قد نندم عليها لاحقًا. وهنا سيكون الحل هو منح الموظفين الصلاحية لاتخاذ قرارات مدروسة، وتشجيعهم على التعبير عن الشكوك والتردد، حتى لو بدت بسيطة، ولتحقيق ذلك، يجب أن يشجع قادة الشركات على ثقافة الحوار المفتوح في مكان العمل، ليشعر الموظفون بالأمان للتعبير عن آرائهم ومخاوفهم دون خوف من العقاب. فعندما يكون الحوار صريحًا وبناءً، يمكننا اكتشاف الثغرات في الخطط وتجنب الوقوع في الفخاخ. وتُظهر لنا قصة المسؤول التنفيذي في شركة فيراري ، كيف يمكن للشك الصغير أن يكشف عن عملية احتيال كبيرة، فقد تلقى هذا  المسؤول مكالمة هاتفية من شخص ادعى أنه بينيديتو فيجنا، الرئيس التنفيذي للشركة، وقد بدأت المحادثة بشكل طبيعي، ولكن سرعان ما تحولت إلى طلبات حساسة تتطلب سرية تامة، وهنا شك المسؤول التنفيذي في الأمر، وطرح سؤالًا محددًا للغاية لا يمكن لأي شخص سوى الرئيس التنفيذي الإجابة عنه، عندها، انقطع الاتصال فجأة، مما كشف عن محاولة احتيال محكمة، دفعت الشركة إلى إجراء تحقيق في الأمر. في عصرنا الحالي، نشهد زيادة في التشابك العاطفي مع التكنولوجيا، فنحن ننسى أحيانًا أن الذكاء الاصطناعي هو مجرد أداة، وليس إنسان، ولكن بإضفاء الصفات الإنسانية على التكنولوجيا، نصبح أكثر عرضة للتأثير والتلاعب. إن كوننا بشرًا يعني أننا نشعر ونرتبط عاطفيًا بالأشياء من حولنا، ولكن هذا لا يعني أننا عاجزون عن التحكم في عواطفنا. يمكننا تدريب أنفسنا على التفكير بشكل نقدي واتخاذ قرارات مدروسة، حتى في المواقف التي تغلب عليها العاطفة. الوسوم Deepfake إنتل التزييف العميق الذكاء الاصطناعي الذكاء الاصطناعي التوليدي الذكاء العاطفي الشركات نسخ الرابط تم نسخ الرابط

مشاركة :