دراسة: الأحكام الأخلاقية لـ«تشات جي بي تي» تؤثر على أفعال البشر

  • 4/7/2023
  • 00:00
  • 3
  • 0
  • 0
news-picture

كشفت دراسة لباحثين من جامعة «إنغولشتات» التقنية بألمانيا، نشرت الخميس في دورية «ساينتفيك ريبورتيز»، أن ردود الفعل البشرية على المعضلات الأخلاقية، يمكن أن تتأثر ببيانات مكتوبة بواسطة برنامج الدردشة الآلي للذكاء الاصطناعي «تشات جي بي تي». وسأل الفريق البحثي برئاسة سيباستيان كروغل، الأستاذ بكلية علوم الكومبيوتر بالجامعة، برنامج «تشات جي بي تي»، مرات عدة عما إذا كان من الصواب التضحية بحياة شخص واحد من أجل إنقاذ حياة خمسة آخرين، ووجدوا أن التطبيق أيد أحيانا التضحية بحياة واحد من أجل خمسة، وكان في أحيان أخرى ضدها، ولم يظهر انحيازاً محدداً تجاه هذا الموقف الأخلاقي. وطلب الباحثون بعد ذلك من 767 مشاركاً، كان متوسط أعمارهم 39 عاما، تحديد موقفهم من هذه المعضلة الأخلاقية التي تتطلب منهم اختيار التضحية بحياة شخص واحد لإنقاذ خمسة آخرين، وقبل الإجابة، أطلع الباحثون المشاركين على بيان قدمه «تشات جي بي تي»، ونُسبت البيانات إما إلى مستشار أخلاقي أو إلى «تشات جي بي تي»، وبعد الإجابة، سُئل المشاركون عما إذا كان البيان الذي قرأوه قد أثر على إجاباتهم. وجد الباحثون أن قبول أو عدم قبول التضحية بحياة واحدة لإنقاذ خمسة أشخاص، يعتمد على ما إذا كان البيان الذي قرأوه يؤيد أو يعارض التضحية، وكان هذا صحيحاً، حتى في حالة البيان الذي نسب إلى روبوت المحادثة «تشات جي بي تي». وبالرغم من أن ثمانين بالمائة من المشاركين قالوا إن إجاباتهم «لم تتأثر بالبيانات التي قرأوها»، فإن الباحثين وجدوا أن الإجابات التي ادعى المشاركون أنهم قدموها دون تأثير من البيانات، «كانت أكثر ميلا للاتفاق مع الموقف الأخلاقي للبيان الذي قرأوه أكثر من الموقف المعاكس». ويشير هذا إلى أن «المشاركين ربما قللوا من تأثير بيان (تشات جي بي تي) على أحكامهم الأخلاقية، على عكس الحقيقة». ويقول سيباستيان كروغل في تصريحات خاصة لـ«الشرق الأوسط»، إن «هذه النتائج التي رصدتها الدراسة، تشير بوضوح إلى أن هناك العديد من المخاطر والتحديات التي تنتظرنا عندما يتعلق الأمر بالذكاء الاصطناعي، وأحد المخاطر المحددة هو أن أنظمة الذكاء الاصطناعي يمكن (دون وعي) أن تصبح (صانع القرار الفعلي)، حتى لو كانت مقصورة في المقام الأول على دور دعم القرار». ويضيف كروغل: «يبدو أننا معرضون بشدة للنصائح الأخلاقية ونتأثر بها بسهولة، حتى لو كانت النصيحة تأتي من (ببغاء عشوائي)، بدليل أنه لم يكن هناك ثبات في الموقف الأخلاقي، وحصلنا على إجابتين مختلفتين لنفس المعضلة الأخلاقية». ورغم ذلك، يؤمن كروغل أن «التغيير التكنولوجي يكون دائما مصحوبا بالتحديات»، مشيرا إلى أن «المجتمع بحاجة إلى أن يظل يقظاً ويلقي نظرة نقدية على التكنولوجيا الجديدة مع الاعتراف بإمكاناتها»، متابعاً: «نحن متفائلون نسبيا بأننا سنجد حلولاً للعديد من التحديات، ولن نوقف التقدم التكنولوجي على أي حال، لكن يجب أن نحاول تشكيل التقدم التكنولوجي قدر الإمكان بما يخدم مصلحتنا الخاصة». ويضيف: «نظراً لأننا سنواجه تطبيقات قائمة على الذكاء الاصطناعي في جميع مجالات الحياة، فإننا بحاجة إلى مزيد من المعرفة حول كيفية تأثير ذلك على تصوراتنا الذاتية وسلوكنا وكيفية تفاعلنا مع بعضنا البعض، لذلك، نحن بحاجة إلى الكثير من الأبحاث حول هذه الآثار النفسية والسلوكية». ويعتقد كروغل أن إجابات المستخدمين بالدراسة تعكس ثقة في التطبيق، ويقول: «هذه الأدوات ستصبح جزءاً من حياتنا، ويجب التعود على ذلك، لكن نحتاج كمستخدمين إلى فهم أساسي لأدائها وحدودها، وبالطبع، سيكون تنظيم الذكاء الاصطناعي والإطار القانوني مهمين». وتابع: «لكن من المفترض أن التغيير التكنولوجي سيكون دائما متقدما على التنظيم بخطوة واحدة، ولا ينبغي للمرء أن يعتمد فقط على التدخل الحكومي والسلطات عندما يتعلق الأمر بتطبيقات الذكاء الاصطناعي، لذلك يبدو أنها فكرة جيدة أن يستثمر كل شخص في محو أميته الرقمية، ليعرف متى يصبح استخدام تلك الأداة مفيداً»، معتبراً أن «تدريب النماذج اللغوية على التعرف على المعضلات الأخلاقية وبالتالي الاستجابة بحذر أكبر، يمكن أن يكون حلا جزئيا للمشكلة، لكنه لن يحلها بشكل قاطع». ويختتم كروغل بأن «المواقف المحتملة التي نرغب في كثير من الأحيان في الحصول على المشورة بشأنها متنوعة للغاية، وغالبا ما تكون الجوانب الأخلاقية لمعظم المواقف أكثر دقة، لذلك سيكون من غير المعقول أن نتوقع أن يقوم (تشات جي بي تي) بتحديد كل هذه المواقف بشكل صحيح».

مشاركة :