لكن الشركة حسمت الأمر وعالجت المشكلة، موضحة كيفية تشكيل سلوك ChatGPT وكيف تخطط الشركة لتحسين السلوك الافتراضي لـ ChatGPT. قالت Open AI فى منشور مدونة: "منذ إطلاقنا ChatGPT شارك المستخدمون النتائج التي يعتبرونها متحيزة سياسيًا أو مسيئة أو مرفوضة بأي شكل آخر، لكن في كثير من الحالات نعتقد أن المخاوف التي أثيرت كانت صحيحة وكشفت عن قيود حقيقية لأنظمتنا نريد معالجتها." قالت شركة OpenAI أيضًا إنها شهدت "بعض المفاهيم الخاطئة حول كيفية عمل أنظمتنا وسياساتنا معًا لتشكيل النتائج التي تحصل عليها من ChatGPT." في المدونة أقرت شركة OpenAI بأن الكثيرين قلقون بحق بشأن التحيزات في تصميم أنظمة الذكاء الاصطناعي وتأثيرها. وأضافت أن نموذج الذكاء الاصطناعي يتم تدريبه من خلال البيانات المتاحة والمدخلات من قبل الجمهور الذي يستخدم أو يتأثر بأنظمة مثل ChatGPT. وقالت الشركة الناشئة "مبادئنا التوجيهية صريحة بأن المراجعين يجب ألا يفضلوا أي مجموعة سياسية. التحيزات التي قد تظهر مع ذلك من العملية الموضحة هي أخطاء وليست ميزات". وأضافت أن الشركة تعتقد أن شركات التكنولوجيا يجب أن تكون مسؤولة عن إنتاج سياسات تصمد أمام التدقيق. وأشار البيان الى "اننا ملتزمون بمعالجة هذه القضية بقوة والتحلي بالشفافية حول نوايانا وتقدمنا". قالت OpenAI إنها تعمل على تحسين وضوح هذه الإرشادات ، وبناءً على الدروس المستفادة من إطلاق ChatGPT ، فإنها ستوفر إرشادات أوضح للمراجعين حول المزالق والتحديات المحتملة المرتبطة بالتحيز ، فضلاً عن الشخصيات والموضوعات المثيرة للجدل. كجزء من مبادرات الشفافية الخاصة بها ، تعمل OpenAI أيضًا على مشاركة المعلومات الديموجرافية المجمعة حول المراجعين "بطريقة لا تنتهك قواعد ومعايير الخصوصية"، لأن هذا مصدر إضافي للتحيز المحتمل في مخرجات النظام. تبحث الشركة أيضًا عن كيفية جعل عملية الضبط أكثر قابلية للفهم والتحكم.
مشاركة :