«أوبن أي آي» تطور أداة لاستنساخ الصوت بالذكاء الاصطناعي

  • 3/30/2024
  • 14:24
  • 8
  • 0
  • 0
news-picture

عرضت شركة «أوبن اي آي»، مبتكرة برنامج المحادثة الشهير «تشات جي بي تي» القائم على الذكاء الاصطناعي التوليدي، أداة لاستنساخ الصوت سيكون استخدامها محدوداً لتفادي تسجيل حوادث احتيال أو جرائم. والأداة التي سُمّيت بـ«فويس انجين» قادرة على إعادة إنتاج صوت شخص من خلال عينة صوتية مدتها 15 ثانية، على ما ذكر بيان لـ«اوبن اي آي» تطرّق إلى نتائج اختبار أجري على نطاق صغير. وأضاف البيان «ندرك أن القدرة على توليد أصوات تشبه أصوات البشر خطوة تنطوي على مخاطر كبيرة، خصوصاً في عام الانتخابات هذا». وتابع «نعمل مع شركاء أميركيين ودوليين من حكومات ووسائل إعلام ومجالات الترفيه والتعليم والمجتمع المدني وقطاعات أخرى، ونأخذ ملاحظاتهم في الاعتبار خلال عملية ابتكار الأداة». وفي هذا العام الذي يُرتقب أن يشهد انتخابات في دول كثيرة، يخشى الباحثون في مجال التضليل الإعلامي من إساءة استخدام تطبيقات الذكاء الاصطناعي التوليدية، وخصوصا أدوات استنساخ الصوت التي تُعدّ رخيصة وسهلة الاستخدام ويصعب تتبعها. وأكدت «أوبن اي آي» أنها اعتمدت «نهجا حذرا» قبل نشر الأداة الجديدة على نطاق أوسع «بسبب احتمال إساءة استخدام الأصوات الاصطناعية». ويأتي عرض الأداة بعدما قام مستشار يعمل في الحملة الرئاسية لمنافس ديموقراطي لجو بايدن، بابتكار برنامج آلي انتحل شخصية الرئيس الأميركي المرشح لولاية جديدة. ودعا الصوت المشابه لصوت جو بايدن الناخبين إلى الامتناع عن التصويت في الانتخابات التمهيدية في نيو هامبشر. وحظرت الولايات المتحدة مذّاك الدعوات التي تستخدم فيها الأصوات المستنسخة المولّدة بواسطة الذكاء الاصطناعي، من أجل مكافحة عمليات الاحتيال السياسية أو التجارية. وأوضحت «أوبن اي آي» أنّ الشركاء الذين يختبرون «فويس انجين» وافقوا على قواعد تفرض مثلاً موافقة صريحة من أي شخص قبل استخدام صوته، وضرورة الإشارة بوضوح إلى المستمعين أن الأصوات ابتُكرت بواسطة الذكاء الاصطناعي. وتابعت الشركة «اعتمدنا مجموعة من الإجراءات الأمنية، بينها العلامة المائية حتى نتمكن من تتبع أصل كل صوت تبتكره الأداة الجديدة، بالإضافة إلى مراقبة استباقية لاستخدامها». عرضت شركة «أوبن اي آي»، مبتكرة برنامج المحادثة الشهير «تشات جي بي تي» القائم على الذكاء الاصطناعي التوليدي، أداة لاستنساخ الصوت سيكون استخدامها محدوداً لتفادي تسجيل حوادث احتيال أو جرائم.والأداة التي سُمّيت بـ«فويس انجين» قادرة على إعادة إنتاج صوت شخص من خلال عينة صوتية مدتها 15 ثانية، على ما ذكر بيان لـ«اوبن اي آي» تطرّق إلى نتائج اختبار أجري على نطاق صغير. فرنسا تتجه لتشكيل «قوة أمنية» خاصة بالمدارس منذ 5 ساعات برج مائل آخر في إيطاليا.. قد يسقط بالفعل! منذ 6 ساعات وأضاف البيان «ندرك أن القدرة على توليد أصوات تشبه أصوات البشر خطوة تنطوي على مخاطر كبيرة، خصوصاً في عام الانتخابات هذا».وتابع «نعمل مع شركاء أميركيين ودوليين من حكومات ووسائل إعلام ومجالات الترفيه والتعليم والمجتمع المدني وقطاعات أخرى، ونأخذ ملاحظاتهم في الاعتبار خلال عملية ابتكار الأداة».وفي هذا العام الذي يُرتقب أن يشهد انتخابات في دول كثيرة، يخشى الباحثون في مجال التضليل الإعلامي من إساءة استخدام تطبيقات الذكاء الاصطناعي التوليدية، وخصوصا أدوات استنساخ الصوت التي تُعدّ رخيصة وسهلة الاستخدام ويصعب تتبعها.وأكدت «أوبن اي آي» أنها اعتمدت «نهجا حذرا» قبل نشر الأداة الجديدة على نطاق أوسع «بسبب احتمال إساءة استخدام الأصوات الاصطناعية».ويأتي عرض الأداة بعدما قام مستشار يعمل في الحملة الرئاسية لمنافس ديموقراطي لجو بايدن، بابتكار برنامج آلي انتحل شخصية الرئيس الأميركي المرشح لولاية جديدة.ودعا الصوت المشابه لصوت جو بايدن الناخبين إلى الامتناع عن التصويت في الانتخابات التمهيدية في نيو هامبشر.وحظرت الولايات المتحدة مذّاك الدعوات التي تستخدم فيها الأصوات المستنسخة المولّدة بواسطة الذكاء الاصطناعي، من أجل مكافحة عمليات الاحتيال السياسية أو التجارية.وأوضحت «أوبن اي آي» أنّ الشركاء الذين يختبرون «فويس انجين» وافقوا على قواعد تفرض مثلاً موافقة صريحة من أي شخص قبل استخدام صوته، وضرورة الإشارة بوضوح إلى المستمعين أن الأصوات ابتُكرت بواسطة الذكاء الاصطناعي.وتابعت الشركة «اعتمدنا مجموعة من الإجراءات الأمنية، بينها العلامة المائية حتى نتمكن من تتبع أصل كل صوت تبتكره الأداة الجديدة، بالإضافة إلى مراقبة استباقية لاستخدامها».

مشاركة :