القاهرة - سامية سيد - يحذر الباحثون من أن نماذج الذكاء الاصطناعي التوليدية، بما في ذلك ChatGPT و DALL-E و Midjourney، يمكن أن تشوه المعتقدات البشرية عن طريق نشر معلومات خاطئة ومتحيزة. قد تشوه نماذج الذكاء الاصطناعي التوليدية مثل ChatGPT و DALL-E و Midjourney المعتقدات البشرية من خلال نقل المعلومات الخاطئة والتحيزات النمطية، وفقًا للباحثين سيليست كيد وأبيبا بيرهاني، من وجهة نظرهم، يتعمقون في كيف يمكن للدراسات في علم النفس البشري أن تلقي الضوء على سبب امتلاك الذكاء الاصطناعي التوليدي مثل هذه القوة في تشويه المعتقدات البشرية. يجادلون بأن تصور المجتمع لقدرات نماذج الذكاء الاصطناعي التوليدية مبالغ فيه بشكل مفرط، مما أدى إلى انتشار الاعتقاد بأن هذه النماذج تفوق القدرات البشرية، حيث يميل الأفراد بطبيعتهم إلى تبني المعلومات التي تنشرها كيانات مطلعة وواثقة مثل الذكاء الاصطناعي التوليدي بوتيرة أسرع وبتأكيد أكبر. تتمتع نماذج الذكاء الاصطناعي التوليدية هذه بالقدرة على اختلاق معلومات خاطئة ومتحيزة يمكن نشرها على نطاق واسع وبشكل متكرر، وهي عوامل تحدد في النهاية المدى الذي يمكن أن تترسخ فيه هذه المعلومات في معتقدات الناس، والأفراد هم الأكثر عرضة للتأثير عندما يسعون للحصول على المعلومات ويميلون إلى الالتزام الصارم بالمعلومات بمجرد تلقيها. يلبي التصميم الحالي للذكاء الاصطناعي التوليدي إلى حد كبير البحث عن المعلومات وتوفيرها، على هذا النحو، قد يشكل تحديًا كبيرًا في تغيير عقول الأفراد المعرضين لمعلومات خاطئة أو متحيزة عبر أنظمة الذكاء الاصطناعي هذه، كما اقترح كيد وبيرهاني. واختتم الباحثون بالتأكيد على فرصة حاسمة لإجراء دراسات متعددة التخصصات لتقييم هذه النماذج، يقترحون قياس تأثيرات هذه النماذج على المعتقدات البشرية والتحيزات قبل وبعد التعرض للذكاء الاصطناعي التوليدي، وهذه فرصة مناسبة، لا سيما بالنظر إلى أن هذه الأنظمة يتم تبنيها بشكل متزايد ودمجها في مختلف التقنيات اليومية. يمكنكم متابعة أخبار مصر و العالم من موقع كلمتك عبر جوجل نيوز
مشاركة :