الحرب النووية أرحم من الذكاء الاصطناعي - د.عبدالله بن موسى الطاير

  • 5/8/2023
  • 00:00
  • 3
  • 0
  • 0
news-picture

بالفصحى نقول لإنسان اليوم: يداك أوكتا وفوك نفخ، وبلهجة بعض الجوار الخليجي «خبز خبزتيه يالرفلة كليه». جنايات الإنسان على نفسه كثيرة، وجنايته على غيره من بني جنسه وعلى نطاق أوسع ليس شيئا غير معتاد، فهو ظلوم جهول. لكن أن يتعدى بتهديده على النوع البشري كافة، فذلك صائل وجب لجمه بالقوة. هكذا قال العارفون، ولست أنا من قال. وقبل أن يصطاد في كلامي الهواة، والمتحمسون للذكاء الاصطناعي ويتسابقوا بهراوات التبرير والتجهيل، بناء على قراءة العنوان، فإنني أدعو المختصين العرب للكتابة بموضوعية في هذا الشأن الذي يقلق الغرب عموما والأمريكيين خاصة، وألا يكون ما يقلقهم شافيا لما في صدورنا، فنحن في مركب البشرية سواء، والمصير واحد. في أواخر مارس 2023م وقع أكثر من 1000 (وصل عدد الموقعين الآن إلى أكثر من 27000) من قادة التكنولوجيا والباحثين وغيرهم من الخبراء العاملين في مجال الذكاء الاصطناعي والمهتمين به رسالة مفتوحة تحذر من تقنيات الذكاء الاصطناعي وأنها تمثل «مخاطر جسيمة على المجتمع والإنسانية»، وحثت المجموعة، التي كان من ضمنهم إيلون ماسك، و يوشوا بنجيو، المختبرات على وقف تطوير أقوى أنظمتها لمدة ستة أشهر حتى يتمكنوا من فهم المخاطر الكامنة وراء التكنولوجيا بشكل أفضل. «يجب تطوير تقنيات الذكاء الاصطناعي القوية فقط عندما نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة «، هكذا كتبوا في مناشدتهم، مشيرين إلى «الضعف الشديد في قدرة العلماء حاليا على فهم الأخطاء التي قد ترتكبها تقنيات الذكاء الاصطناعي القوية جدا». وقال أحد أهم الموقعين على الرسالة، أستاذ الذكاء الاصطناعي بجامعة مونتريال البروفيسور يوشوا بنجيو الذي أمضى العقود الأربعة الماضية في تطوير التكنولوجيا التي تقود أنظمة مثل GPT-4: «نحن بحاجة إلى توخي الحذر الشديد». وصنف الكاتب المتخصص في الذكاء الاصطناعي كايد متز في مقالة لصحيفة نيويورك تايمز مخاطر الذكاء الاصطناعي في ثلاثة نطاقات زمنية؛ على المدى القريب يرى أنها مضللة، حيث يصعب الجزم بصحة المعلومات التي تولدها في إجابتها عن الأسئلة الموجهة لها، وعلى المدى المتوسط ستؤثر على الوظائف وسيفقد عدد كبير من الناس وظائفهم لصالح التقنية الجديدة التي ستقوم بها بشكل أسرع وربما مجانا أو بسعر زهيد، وبالتأكيد فإن تحدياتها في هذا المجال تقابله فرص مواتية تخلق وظائف نوعية بسبب هذه التقنية، أما على المستوى البعيد وهو الأخطر فيرى كايد متز أن المخاطر تتمثل في فقدان السيطرة على هذه التقنيات، حيث «يعتقد بعض الأشخاص الذين وقعوا الرسالة أيضًا أن الذكاء الاصطناعي يمكن أن ينزلق خارج سيطرتنا أو يدمر البشرية. لكن العديد من الخبراء يقولون إن هذا مبالغ فيه للغاية». كتب إليعازر يودكوفسكي، وهو كاتب متخصص في مجال الذكاء الاصطناعي، وتُضمن آراؤه في المقررات الجامعية للطلبة الدارسين في مجال الذكاء الاصطناعي، مقالة في المجلة الشهيرة «تايم» مرحبا بفكرة الإيقاف المؤقت المقترحة، بيد أنها غير كافية، ودعا إلى حلول جذرية توقف التجارب نهائيا وبالقوة، ويؤسس لموقفه المتشدد بالقول «إذا قام شخص ما ببناء ذكاء اصطناعي قوي للغاية، في ظل الظروف الحالية، أتوقع أن يموت كل فرد من الجنس البشري وكل أشكال الحياة البيولوجية على الأرض بعد ذلك بوقت قصير». يطالب إليعازر: «بوقف الدورات التدريبية الكبيرة والجديدة إلى أجل غير مسمى وفي جميع أنحاء العالم وبدون استثناءات للحكومات أو الجيوش»، ما عدا ما يتعلق بحل المشكلات «في البيولوجيا والتكنولوجيا الحيوية، وليس التدريب على النصوص من الإنترنت». وطالب اليعازر بتوقيع اتفاقية دولية متعددة الأطراف لمنع أنشطة الذكاء الاصطناعي المحظورة من الحركة والتنقل، وتتبع جميع وحدات معالجة الرسومات المباعة، و»إذا أفادت المعلومات الاستخبارية أن دولة خرجت عن الاتفاقية... فكن على استعداد لتدمير أي مركز بيانات مارق عن طريق الضربات الجوية». ويرى الكاتب أن الدول النووية الموقعة على اتفاقية منع الانتشار النووي يجب أن تكون مستعدة للتعاون فيما بينها باستخدام القوة النووية لتقليل مخاطر التدريبات الكبيرة على الذكاء الاصطناعي. مؤمن بوجاهة رأي المتخصصين، ولكنه في نهاية المطاف رأي، يفصل العلماء في مستوى المخاوف وآليات معالجتها. وعندما يكون الرأي مصحوبا بمناشدة وقعها نحو 27000 شخص من العلماء والمتخصصين والمهتمين فإن الأمر يدعو للقلق من تداعيات الذكاء الاصطناعي الذي يُحتفل بتطبيقاته بشكل هوسي.

مشاركة :