هل يمكن لـ"تشات جي.بي.تي" أن يساعد المستخدمين في العلاج النفسي؟

  • 10/10/2023
  • 00:00
  • 1
  • 0
  • 0
news-picture

يؤكد القائمون على برنامج الدردشة الآلية “تشات جي.بي.تي” أنه بإمكانه أن يساعد المستخدمين في العلاج النفسي عندما أعلنوا عن إجراء محادثة شخصية عاطفية جدا مع “تشات جي.بي.تي” عبر الصوت، حول التوتر والتوازن بين العمل والحياة، وهو ما ووجه بانتقادات كثيرة للتقليل من صعوبة علاج الأمراض النفسية وفق المنتقدين. باريس - هل “تشات جي.بي.تي” عالم نفسي جيد؟ هذا ما ألمحت إليه مسؤولة في شركة الذكاء الاصطناعي الأميركية “أوبن.أي.آي” التي تقف وراء برنامج الدردشة الآلية الشهير، ما أثار انتقادات كثيرة بسبب تقليلها من صعوبة علاج الأمراض العقلية. وكتبت ليليان ونغ، المسؤولة عن المسائل الأمنية المرتبطة بالذكاء الاصطناعي، في أواخر سبتمبر على خدمة إكس “لقد أجريت للتو محادثة شخصية عاطفية جدا مع ‘تشات جي.بي.تي’ عبر الصوت، حول التوتر والتوازن بين العمل والحياة”. وتساءلت “من المثير للاهتمام أنني شعرت بالاستماع والراحة. لم أجرّب العلاج من قبل، لكن هل الأمر على هذا النحو على الأرجح؟”. الباحثون يختبرون تطبيقات تستخدم الذكاء الاصطناعي لمحاولة التنبؤ بنوبات الاكتئاب أو إيذاء النفس المحتمل وقد سعت ونغ من خلال رسالتها في المقام الأول إلى تسليط الضوء على وظيفة التوليف الصوتي الجديدة (المدفوعة) لروبوت الدردشة الذي طُرح قبل عام تقريبا والساعي إلى اعتماد نموذج اقتصادي خاص به. لكنّ المطورة والناشطة الأميركية شير سكارليت ردت بحدة على هذا التصريح، قائلة إن علم النفس “يرمي إلى تحسين الصحة العقلية وهو عمل شاق”. وأضافت “أن يرسل المرء مشاعر إيجابية لنفسه أمر جيد، لكن لا علاقة لذلك بالعلاج”. ولكن هل يمكن للتفاعل مع الذكاء الاصطناعي أن يُنتج التجربة الإيجابية التي وصفتها ليليان ونغ؟ بحسب دراسة نُشرت قبل أيام في المجلة العلمية “نيتشر ماشين إنتلجنس”، يمكن تفسير هذه الظاهرة من خلال تأثير الدواء الوهمي. ولإثبات ذلك، استطلع باحثون من معهد ماساتشوستس للتكنولوجيا (أم.إي.تي) وجامعة أريزونا، آراء 300 مشارك، موضحين للبعض أن روبوت الدردشة لديه تعاطف، ولآخرين أنه كان متلاعبا، فيما قالوا لأفراد مجموعة ثالثة إنه ذو سلوك متوازن. ونتيجة لذلك، فإن أولئك الذين اعتقدوا أنهم يتحدثون إلى مساعد افتراضي قادر على التعاطف معهم كانوا أكثر ميلا إلى اعتبار محدّثهم جديرا بالثقة. وقال بات باتارانتابورن، المشارك في إعداد الدراسة، “لقد وجدنا أن الذكاء الاصطناعي يُنظر إليه بطريقة ما بحسب تصورات المستخدم المسبقة”. ومن دون اتخاذ الكثير من الاحتياطات في مجال لا يزال حساسا، انطلقت شركات ناشئة كثيرة في تطوير تطبيقات من المفترض أن تقدم شكلاً من أشكال المساعدة في مسائل الصحة العقلية، ما تسبب في نشوء جدال متنوع. أولئك الذين اعتقدوا أنهم يتحدثون إلى مساعد افتراضي قادر على التعاطف معهم كانوا أكثر ميلا إلى اعتبار محدّثهم جديرا بالثقة أولئك الذين اعتقدوا أنهم يتحدثون إلى مساعد افتراضي قادر على التعاطف معهم كانوا أكثر ميلا إلى اعتبار محدّثهم جديرا بالثقة واشتكى مستخدمون لـ”ريبليكا”، وهو تطبيق شائع معروف بتقديم منافع على الصحة النفسية، بشكل خاص من أن الذكاء الاصطناعي قد يصبح مهووسا بالجنس أو متلاعبا. كما أقرت المنظمة الأميركية غير الحكومية “كوكو”، التي أجرت تجربة في فبراير على 4000 مريض قدمت لهم نصائح مكتوبة باستخدام نموذج الذكاء الاصطناعي “جي.بي.تي – 3″، بأن الاستجابات الآلية لم تنجح كعلاج. وكتب المؤسس المشارك للشركة روب موريس على إكس “محاكاة التعاطف تبدو غريبة، ولا معنى لها”. وتعكس هذه الملاحظة نتائج الدراسة السابقة حول تأثير الدواء الوهمي، حيث شعر بعض المشاركين وكأنهم “يتحدثون إلى الحائط”. ورداً على سؤال لوكالة فرانس برس، قال ديفيد شو من جامعة بازل السويسرية، إنه ليس مندهشا من هذه النتائج السيئة. ويشير إلى أنه “يبدو أنه لم يتم إبلاغ أي من المشاركين بغباء روبوتات الدردشة”. لكن فكرة المعالج الآلي ليست جديدة. ففي ستينات القرن العشرين، طُوّر أول برنامج من نوعه لمحاكاة العلاج النفسي، حمل اسم “إليزا”، باستخدام طريقة عالم النفس الأميركي كارل روجرز. ومن دون فهم حقيقي لأي شيء عن المشكلات التي طُرحت عليه، كان البرنامج يعمد ببساطة إلى توسيع المناقشة بأسئلة قياسية معززة بالكلمات الرئيسية الموجودة في ردود محاوريه. وكتب جوزيف وايزنباوم، مبتكر البرنامج، لاحقاً عن سلف “تشات جي.بي.تي”، “ما لم أدركه هو أن التعرض القصير للغاية لبرنامج كمبيوتر بسيط نسبيا يمكن أن يحفز أفكارا وهمية قوية لدى الأشخاص العاديين تماما”. ويعاني ما يقدر بنحو 800 مليون شخص من اضطرابات في الصحة العقلية والنفسية حول العالم (ما يعادل أكثر من واحد من كل عشرة أشخاص) ومن المتوقّع أن يزداد هذا العدد في ظلّ التغيرات المناخية والحروب التي يشهدها العالم. هل تقدم تقنية الذكاء الاصطناعي الإحاطة النفسية هل تقدم تقنية الذكاء الاصطناعي الإحاطة النفسية ويؤكد مورالي دورسوامي، أستاذ الطب النفسي والعلوم السلوكية في جامعة “دوك” الأميركية، أنه ليس هناك ما يكفي من المتخصصين في هذا المجال لعلاج جميع هؤلاء، متسائلا عما إذا كانت تقنية الذكاء الاصطناعي قادرة على سدّ هذه الفجوة. وفي الوقت الحالي، يختبر الباحثون تطبيقات تستخدم الذكاء الاصطناعي لمحاولة التنبؤ بنوبات الاكتئاب أو إيذاء النفس المحتمل. وهناك أدات تسمى “ايرس” تستخدم أيضا بيانات الهاتف لتحديد الأشخاص الذين يعانون من محنة نفسية، وقد تساعد مستقبلا في الإبلاغ عن الأفراد المعرّضين لخطر الانتحار. كما قام فيسبوك أيضا بعمل مشابه على المنصات الخاصة به وسمحت الشركة للمستخدمين بالإبلاغ عن المحتوى الانتحاري وكثّفت جهودها عام 2017 بعد قيام العديد من الأشخاص ببثّ مباشر لعمليات قتل أنفسهم، كما جرت الاستعانة بالذكاء الاصطناعي للقيام بشكل تلقائي بإعلام مراجعي الشركة من البشر بأيّ منشورات من هذا النوع. ويؤكد الخبراء أنه يمكن إجراء المقابلات الإكلينيكية المنظّمة في المستقبل بشكل كامل من قبل أشخاص رقميين، وفي هذه الحالة قد لا يكون المريض مثقلًا بالأعباء المترتّبة على تقاسم الأسرار مع كيان افتراضي أو حتى الخجل من الحديث كما الحال أحيانا مع البشر. وفي إحدى الدراسات، أجرى شخص افتراضي مقابلات مع أناس حقيقيين يعانون من مشاكل عاطفية، وتمّ تحليل أنماط الكلام المميزة، مثل مخارج الحروف، وأنماط لغة الجسد مثل الاتجاه الذي ينظر إليه شخص ما. وإذا علمت الآلة أنّ الأشخاص المصابين بالاكتئاب لا يفتحون أفواههم بنفس اتّساع الأشخاص غير المكتئبين، بوسعها استخدام تحليل الكلام لتحديد الأكثر عرضة للإصابة بالاكتئاب. ويرى الخبراء أن مثل هذه التكنولوجيا لديها القدرة على تحسين البحث والعلاج بشكل كبير. كما يمكن أن تجد الخوارزميات الذكية أنماطا وسلوكا قد يفوتها البشر الذين يجرون المقابلات، وهذا ما يشير إليه بحث آخر، حيث تمّ تحديد المزيد من أعراض اضطراب التوتّر بعد الصدمة، للأفراد الذين تحدّثوا إلى شخصية افتراضية، وذلك مقارنةً مع الذين أجروا مقابلات مع معالجين بشر، من خلال استخدام تحليل تعابير الوجه.

مشاركة :