في السنوات الأخيرة، أصبح التقدم المطرد في الذكاء الاصطناعي نقطة محورية للابتكار في مختلف الصناعات. ولعل أحد أكثر التطورات الرائدة في مجال الذكاء الاصطناعي هو ظهور النماذج التوليدية، والتي لديها القدرة على إحداث ثورة هائلة في شتى مناحي الحياة. إلا أن البعض يبدي قلقه بشأن التحيزات والأجندات السياسية، في حين يعتقد البعض الآخر أن الوظائف ستختفي وأن التكنوقراط سيكتنزون كل الثروات. ولكن لحسن الحظ، يمكن معالجة هذه المخاطر من خلال انتهاج الشفافية وحوكمة الشركات وإحداث نقلة نوعية في التعليم. سيتعمق هذا التقرير في أهم المخاوف والمخاطر لهذه التكنولوجيا القوية والحلول المحتملة لكل منها: التحيز الخوارزمي وتأثيره في تشكيل الرأي العام - لنكن واقعيين؛ إن التحيز متأصل في كل نظام. لطالما اختار المحررون قصصًا لنشرها أو تجاهلها. - ومع ظهور الإنترنت، كافأت محركات البحث الناشرين على المحتوى والإعلان الأمثل، مما مكّن فئة من مسوقين محركات البحث. - ثم، وضعت منصات وسائل الإعلام الاجتماعية معايير الجودة الذاتية وشروط الخدمة. بالإضافة إلى ذلك، يمكن أن ينشأ التحيز من تدريب الخوارزمية مع تمثيل ديموغرافي غير متناسب. - على هذا النحو، سنواجه مع الذكاء الاصطناعي التوليدي نفس المشاكل والمناقشات والحلول حول السلامة والخصوصية التي نواجهها بالفعل مع الأنظمة الأخرى. - يؤمن البعض بالحلول التشريعية، ولكن حتى تلك الحلول تتأثر بجماعات الضغط وأصحاب الأيديولوجيات. - عوضًا عن ذلك، يمكن التفكير في حل المنافسة بين روبوتات المحادثة مثل "تشات جي بي تي" أو "بارد" أو من خلال أنظمة قائمة على الصوت مدعومة بنماذج اللغات الكبيرة (LLMs)، وغيرها من نماذج الذكاء الاصطناعي التوليدي. - فالمنافسة تثير الابتكار، حيث تقود الأرباح والحصة السوقية مناهج فريدة من نوعها. مع زيادة الطلب، سيزداد طلب سوق العمل على مدققي التحيز الخوارزمي. - من الصعب العثور على مصدر التحيز في خوارزمية الصندوق الأسود، وهي واحدة من خوارزميات الكمبيوتر غير المرئية لأي طرف (المستخدم أو المبرمج أو أي طرف آخر)، والذي يعطيك نتيجة دون شرح كيفية إظهاره لهذه النتيجة، حيث يرى المستخدمون فقط مدخلات ومخرجات النظام. - ومع ذلك، فإن قواعد التعليمات البرمجية مفتوحة المصدر ومجموعات التدريب ستمكّن المستخدمين من اختبار التحيز في المساحات العامة. قد يقوم المبرمجون بتطوير نماذج صندوق أبيض شفافة، وسيقرر السوق من الفائز. الذكاء الاصطناعي يمكن أن يدمر الوظائف ويركز الثروات - إنّ التطوّرات في الذكاء الاصطناعي تأتي متبوعة بمخاوف تتعلّق بالوظائف والعمل. إذ يخشى الكثيرون من أن يحل التكنوقراط من النخبة محل العمال بالروبوتات ويجمعون الثروات بينما يعاني المجتمع. - لا سيّما وأن الذكاء الاصطناعي التوليدي أصبح الآن قادرًا على إنتاج أعمال على المستوى البشري تتراوح من الأعمال الفنية والمقالات إلى التقارير العلمية. وهذا سيؤثر بشكل كبيرٍ على سوق العمل. - لذا أصبح هناك ضرورة ملحّة لأن يتعلم الناس المهارات الجديدة والمتطورة. سنحتاج إلى نقلة نوعية في التعليم والتدريب للبقاء على قيد الحياة. كذلك يجب توفير شبكة أمان اجتماعي لأولئك الأشخاص الذين لم يطوروا مهاراتهم في الوقت المناسب. - سيتطلب عالم ما بعد الذكاء الاصطناعي من المفكرين والمبدعين وغيرهم الابتكار وتحديد الأفكار التي يجب على الذكاء الاصطناعي تنفيذها. - سيكون هناك سوق للمنتجات والخدمات "من صنع الإنسان". لأنه سيكون هناك حاجة إلى لمسة إنسانية فريدة من نوعها مستنيرة بالذكاء العاطفي، وخاصة في الصناعات الطبية والضيافة. - نعم، قد يكون الأمر مؤثرًا لفترة، لكنه لا يختلف عن كيفية تكيّف الأجيال السابقة مع الاستعانة بأدواتٍ توفر المزيد من الكفاءة في العمل. قد يؤدي الذكاء الاصطناعي التوليدي إلى تدفق الرسائل العشوائية - يرى العديد من المسوقين أن شات جي بي تي هو وسيلة لإنشاء المحتوى، ونشر المقالات. هذه التقنية المحفوفة بالمخاطر هي مجرد شكل رخيص وسريع ومنخفض الجودة من الكتابة الخفية (ghostwriting). - على النقيض من ذلك، قد يجعل المحتوى الذي تم إنشاؤه التسويق الرقمي أكثر إنصافًا من خلال تقليل تكاليف الكتابة الخفية لرواد الأعمال المتمرسين. - المفتاح هو فهم اختصار (Google E-E-A-T)، والذي يرمز إلى الخبرة والحرفية والمصداقية والجدارة بالثقة. إذ تعتمد سمعتك وترتيبك في جوجل على عملك المنشور. - لذا، فإن الأشخاص الذين يقومون بتحسين المحتوى الذي تم إنشاؤه وتخصيصه سوف يزدهرون، في حين أن جوجل تشير إلى أصحاب محتوى "نسخ ولصق" كمرسلي البريد العشوائي. الذكاء الاصطناعي المارق يمكن أن يشكل مخاطر على الأمن السيبراني - يمكن للمبرمج المارق إنشاء توجيهات ضارة للذكاء الاصطناعي لإلحاق الضرر بالأفراد والبرامج والأجهزة والمؤسسات. - تشمل التهديدات البرامج الضارة ومخططات التصيد الاحتيالي وغيرها من تهديدات الأمن السيبراني. - ولكن هذا يحدث بالفعل. قبل ظهور الإنترنت، كنا نكافح فيروسات الكمبيوتر التي تستهدف الأشخاص والمنظمات والمعدات. لقد خدم مقدمو برامج مكافحة الفيروسات الهادفة للربح حاجة هذا السوق لإبقائنا أكثر أمانًا. - بالإضافة إلى ذلك، ستقوم الشركات بإنشاء إجراءات التشغيل القياسية (SOP) لحماية أنظمتها وأرباحها. لذلك، ستخلق وظائف جديدة لتطوير عمليات وحوكمة وأخلاقيات وبرامج جديدة. الهويات المسروقة وهجمات السمعة قد تكون وشيكة - ينشئ الناس بالفعل مقاطع فيديو مزيفة للمشاهير والسياسيين. كثير منها محاكاة ساخرة، ولكن بعضها خبيث. وفي القريب العاجل، لن يتمكن البشر من اكتشاف صحتها. - ولكن، هذه المقاطع منتشرة منذ إصدار الفوتوشوب، وهناك أنظمة وفرق عمل موجودة بالفعل لمعالجة المعلومات الخاطئة والصور المزيفة في شركات وسائل الإعلام الاجتماعية ومنافذ الأخبار. - لن تمنع اللوائح والشرطة أبدًا إنشاء محتوى مزيف. سيجد المتلصصون مبتغاهم في الويب المظلم. لحسن الحظ، هناك حلول في القطاع الخاص بالفعل. - ستستمر منصات التواصل الاجتماعي في حظر المحتوى المزيف والهويات المسروقة. وسوف تؤتي المزيد من الحلول ثمارها. - يمكن للأدوات بالفعل اكتشاف المحتوى الذي تم إنشاؤه والاستمرار في التحسين. قد يصبح بعضها مدمجًا مع متصفحات الإنترنت التي تبدأ في إصدار تحذيرات محتوى مزيفة. - أو قد يرتدي المشاهير رموز الاستجابة السريعة الديناميكية ذات الطابع الزمني للمصادقة عند التصوير. الحاجة إلى التفرد - قد ينشأ الوعي من أنظمة معقدة مثل الذكاء الاصطناعي التوليدي. في الواقع، تشير فرضية المحاكاة إلى أننا في محاكاة يتحكم فيها الذكاء الاصطناعي بالفعل. - وبالمحصلة، فإنّ نشر أنظمة الذكاء الاصطناعي التوليدي بدون سياساتٍ واضحة، وأطر حماية ذات مغزى للمستخدمين، سيجعلهم عرضة لممارسات تتراوح بين الإكراه الخفي والتلاعب الصريح من قِبل هذه الأنظمة. - ومع ذلك توجد أنظمة للتخفيف من هذه المخاطر، وستنشأ أنظمة جديدة للحفاظ على أمان الذكاء الاصطناعي أيضًا. سيبقى مستقبلنا مشرقًا إذا تابع عدد كافٍ من الأشخاص الأمن السيبراني والمجالات ذات الصلة.
مشاركة :