حذر خبراء معهد هاسو بلاتنر إنستيتيوت (إتش.بي.آي) الألماني المتخصص في تكنولوجيا المعلومات، من مخاطر تقديم معلومات حساسة أثناء استخدام منصة المحادثة باستخدام الذكاء الاصطناعي شات جي.بي.تي بسبب ضعف عوامل حماية البيانات والمحافظة على السرية في هذه المنصة. وقال الخبراء إنه إلى جانب المخاوف من أن تقدم منصة «شات جي.بي.تي» إجابات خطأ أو مزيفة على الأسئلة، فإن هذه الخدمة لا يجب اعتبارها مكاناً جيداً للمحافظة على السرية. يأتي ذلك في الوقت الذي يتزايد فيه اعتماد المستخدمين على منصات محادثة الذكاء الاصطناعي مثل شات جي.بي.تي وغوغل بارد في حياتهم اليومية، لذلك يحذر خبراء أمن البيانات من تداول المعلومات السرية عبر هذه المنصات. في الوقت نفسه يشير خبراء معهد إتش.بي.آي إلى أن المستخدمين قد يندفعون لإضافة بيانات حساسة على المنصة نظراً لأنه كلما قدم لها المستخدم معلومات، تمكنت من تقديم إجابات بطريقة أفضل وأذكى. يذكر أن أي مستخدم يتداول معلومات سرية على أي منصة ذكاء اصطناعي، فإنه يخاطر بالتخلي عن سرية بياناته، وهو ما تؤكده سياسة الخصوصية على منصة شات جي.بي.تي. وتقول شركة أوبن.أيه المطورة لمنصة شات جي.بي.تي «كجزء من التزامنا بالسلامة والمسؤولية، نراجع محادثاتنا لتحسين أنظمتنا والتأكد من التزام المحتوى بسياساتنا واشتراطات السلامة»، مؤكدة أن موظفي المنصة يستطيعون رؤية ما يكتبه المستخدمون، في حين توفر الشركة خاصية حذف البيانات. وأضاف خبراء معهد تكنولوجيا المعلومات الألماني أنه لا يجب الإبقاء على الأسرار الشخصية فقط بعيداً عن منصات الذكاء الاصطناعي، وإنما أيضاً معلومات الشركات، وعلى الموظفين الحذر عند السماح لأي منصة ذكاء اصطناعي بالوصول إلى بيانات شركاتهم. وقالوا إن أي شخص يقوم بتحميل البيانات الداخلية لموظفي شركاتهم لكي يستخدمها في إعداد عرض تقديمي أو يستعين بمنصة شات جي.بي.تي لترتيب وتحليل الأرقام المالية للشركة فإنه يعرض بيانات الشركة للخطر. تابعوا البيان الاقتصادي عبر غوغل نيوز طباعة Email فيسبوك تويتر لينكدين Pin Interest Whats App
مشاركة :