وقال رئيس الوزراء البريطاني ريشي سوناك في بيان صادر عن المعهد البريطاني للعلوم والابتكار والتكنولوجيا "تضمن هذه الالتزامات أن تلتزم شركات الذكاء الاصطناعي الرائدة في العالم بالشفافية والقابلية للمساءلة بشأن خططها لتطوير ذكاء اصطناعي آمن". وتعتمد الاتفاقية التي وقعت عليها بشكل خاص أوبن إيه آي (تشات جي بي تي) وغوغل ديب مايند، وأنثروبيك، على الإجماع الذي تم التوصل إليه خلال "القمة" العالمية الأولى حول أمن أنظمة الذكاء الاصطناعي، العام الماضي في حديقة بلتشلي في المملكة المتحدة. وتستضيف سيول النسخة الثانية من هذه "القمة" بالشراكة بين الحكومتين الكورية الجنوبية والبريطانية. -مخاطر "لا يمكن التغاضي عنها"- وتعتبر شركات الذكاء الاصطناعي التي لم تعلن بعد كيفية تقييمها لأمن الأنظمة التي تطورها، ملزمة بتحديد المخاطر التي "لا يمكن التغاضي عنها" والخطوات التي ستتبعها لضمان عدم تجاوز هذه السقوف، وفقا للبيان. وسيتم تحديد هذه السقوف قبل "قمة" الذكاء الاصطناعي المقبلة التي ستُعقد عام 2025 في فرنسا. ومن بين الشركات التي تلتزم هذه القواعد الأمنية عمالقة التكنولوجيا الأميركية مايكروسوفت، أمازون، آي بي إم، ميتا، شركة ميسترال الفرنسية (للذكاء الاصطناعي)، وشركة Zhipu.ai الصينية. وتعقد قمة سيول مدى يومين، جزئيا عن طريق اجتماعات بالفيديو. وبالإضافة إلى تناول الشقّ الأمني لأنظمة الذكاء الاصطناعي، سيدرس المشاركون الوسائل التي يمكن للحكومات من خلالها تعزيز الابتكار وتوسيع أبحاث الذكاء الاصطناعي في الجامعات.
مشاركة :