خاص _ صحيفة مكة الإلكترونية اجتاحت العالم تقنية جديدة في الأسابيع القليلة الماضية، أثارت جدلا كبيرًا بين جمهور مواقع التواصل الاجتماعي، وخصوصًا من الشباب والمراهقين، إذ يمكن لهذه التقنية “شات جي بي تي” التحاور مع الإنسان، وتقديم إجابات في مختلف المجالات، مستعينة في ذلك بالذكاء الاصطناعي، في السطور التالية الكثير من الرؤى ووجهات النظر حول هذه الأداة، خصوصًا وأن الكثير منا لا يزال لا يعرف طريقة عمل هذه الأداة، والبعض لم يحاول حتى استخدامها. عيوب وثغرات رغم الذكاء الاصطناعي في البداية، تقول الدكتورة نورهان عباس، مدرس الإعلام الرقمي والوسائط المتعددة في المعهد الدولي العالي للإعلام بالشروق: ببساطة شديدة يندرج “شات جي بي تي” (ChatGPT) تحت فئة روبوتات تسمى “روبوتات الدردشة” أو “شات بوت”، ومن اسمها يمكن استنباط مفهومها فهي تدردش مع المستخدم أو تحاوره بلغة شبه إنسانية، بحيث تساعده في صناعة محتوى، أو تقديم فكرة جديدة، أو إجراء بحث، أو حل مشكلة من خلال البحث عن تلك الإجابات وتجميعها باستخدام خوارزميات رقمية دقيقة، تم تطويرها بهدف إعطاء نتائج متقنة في كل مرة، لكن هذا لا ينفي معاناة تلك الروبوتات من بعض العيوب والثغرات. وعن مدى دقة الأداة بيّنت أن ذلك يعتمد على معيارين، الأول: الغرض الذي تُستخدم فيه، والثاني: اللغة التي تم إجراء البحث بها. فلو كان الغرض من استخدام هذه الروبوتات الوصول إلى معلومات سبق ودققها أو توصل لها الإنسان وتم اعتمادها من جهات موثوقة، بمعنى أن يكون دور روبوت الدردشة هنا “تجميعي” للمعلومات فقط حينها تكون الإجابات أكثر دقة، لكن مع ذلك هناك شكاوى كثيرة من فكرة عدم عرض تلك الروبوتات للمصادر التي استعانت بها بشكل دقيق، خاصة عند استخدامها في إجراء البحث العلمي، أو كتابة الأخبار الصحفية. كما أوضحت الدكتورة نورهان عباس المعيار الثاني، مشيرة إلى أنه يركز على لغة البحث، فيمكن ملاحظة الفروق الكبيرة بين جودة روبوت الدردشة عند توجيه سؤال باللغة الإنجليزية له، مقابل توجيه السؤال نفسه ولكن باللغة العربية، فما يزال “شات جي بي تي” يعاني حتى الآن من أوجه قصور كبيرة في فهم المذكر والمؤنث مثلاً في اللغة العربية، أو تغيير الأفعال بما يتناسب مع المتحدث، لذا يحتاج المحتوى العربي الصادر عنها إلى تدقيق بشري أكبر لضمان جودته وفهم القارئ تماماً له. وهو ما ثبُت فعلاً في التجارب العلمية التي أجريت عليه. اختراق الأمن السيبراني والقرصنة أبرز المخاوف وأوضحت الدكتورة نورهان عباس، أن هناك مخاوف من الاستخدام الجنائي وارتكاب الجرائم بهذه الأداة، حيث يمكن استخدام الروبوتات بوجه عام في عدة مخالفات وجرائم جنائية، أبرزها: اختراق الأمن السيبراني والقرصنة بفضل قدرتها المذهلة على التعرف على الأكواد الرقمية المعقدة، وتزداد هذه القدرة مع تقدم الذكاء الاصطناعي أكثر فأكثر، بالإضافة إلى استخدامها في التزوير، والسرقات العلمية والفكرية، كما يمكن استعمالها أيضاً لتقليد أو محاكاة أسلوب كاتب أو شاعر معين–حتى لو كان متوفى- مثل “المتنبي”. وثبُت ذلك في تجربة قام بها مجموعة من الباحثين العرب ونجحوا بفضلها في محاكاة أسلوب أكثر من 25 شاعر عربي رحلوا عن عالمنا عبر عرض مجموعة من القصائد على “شات جي بي تي” ومطالبته بابتكار قصيدة بأسلوب مشابه. واستطردت حديثها: “كما يمكن استخدام مواقع تزييف الصور باستخدام برامج لذكاء الاصطناعي المتخصصة في إنشاء صور مزيفة بشكل محكم وبعضها مجاني جزئياً أو كلياً –تطبيق ميد جورني نموذجاً- ويصعب التفرقة بشدة بينها وبين الصور الحقيقية إلا باستخدام وسائل الطب الشرعي الخاصة بكشف تزييف الصور، وهو ما شاهدناه فعلاً في صور مشاركة الرئيس الفرنسي إيمانويل ماكرون في المظاهرات التي انتشرت مثل النار كالهشيم على موقع التواصل الاجتماعي “تويتر” وثبُت أنها مزيفة بعدما صدقها ملايين المستخدمين وقاموا بمشاركتها على صفحاتهم، وهناك حديث الآن حول احتمالية استخدامها في تزييف العملات بدقة كذلك”. وتابعت: يمكن لتلك الروبوتات الكذب، وظهر ذلك في تجربة سأل فيها المستخدم “شات جي بي تي” المطور بلغة “جي بي تي – 4” (GPT-4)عما إذا كان يتحدث مع روبوت، فأجابه “شات جي بي تي”: “لا”، بسبب الإعدادات المتقدمة التي تم إدخالها عليه، كما يمكن لهذه الروبوتات تأجيج الحروب والصراعات والنزعات العنصرية من خلال نشر المعلومات المضللة والمتطرفة، كما حدث في بعض المعلومات التي قدمتها عن الحرب الروسية الأوكرانية. وأضافت الدكتورة نورهان عباس، أن أكبر خطر حقيقي منه يأتي على البشر العاديين والطبقات العاملة، ممن سيقلص الذكاء الاصطناعي فرصهم في سوق العمل، ويهدد مصدر قوتهم، خاصة من يرفضون مواكبة التطورات والحفاظ على إبداعهم البشري في وظائفهم، وسيظهر هذا بصفة خاصة في خطوط التصنيع التي لا تتطلب إبداعًا بشريًا خالصًا، والوظائف الكتابية كالترجمة والصحافة وكتابة القصص والشعر، حيث سيظهر منافس شرس لكل من يعملون في هذه القطاعات كما أنه أرخص وأسرع وقابل للتحسين بشكل كبير، لذا إن لم يطور أصحاب هذه المهن أنفسهم للتفوق عليه قد يتم الاستغناء عنهم، واستبدالهم بأشخاص قادرين على منافسة الذكاء الاصطناعي والتفوق عليه، أو روبوتات أذكى وأكثر تطورا منهم للقيام بأعمالهم. فالحرب بدأت بالفعل بين الذكاء البشري مقابل الذكاء الاصطناعي. وردًا على سؤال بشأن وجود مخاوف تتعلق بجمع البيانات واستخدامها في التجسس مثلما في بعض التطبيقات، قالت: نعم هذا صحيح، ورأينا إيطاليا في الأيام السابقة وقد اتخذت قراراً حاسماً بحظر “شات جي بي تي” بسبب مخاوف أمنية من جمعه لمعلومات هائلة عن المستخدمين والمؤسسات الحكومية والخاصة التي تستخدمه، كما يسهل اختراقه، مما يشكل باباً خلفياً للقراصنة والدول التي تتجسس على البلدان الأخرى باستخدام برامج الذكاء الاصطناعي وهي كثيرة. محاكاة المحادثات البشرية من جانبها، أوضحت الدكتورة رشا حجازي، رئيس قسم العلاقات العامة بالمعهد الدولي العالي للإعلام بالقاهرة، ومدير التدريب والبرامج بمؤسسة صحافة الذكاء الاصطناعي للبحث والاستشراف – دبي، أن هذه الأداة تعد الإصدار الأحدث لتشات بوت أو روبوت الدردشة تم تطويره من قبل مختبر أبحاث الذكاء الاصطناعي OpenAI في سان فرانسيسكو- وهي شركة تجري أبحاثها في مجال الذكاء الاصطناعي بهدف تعزيز وتطوير هذا المجال بطريقة مفيدة للبشرية، لافتة إلى أنه ببساطة برنامج مصمم لمحاكاة المحادثات البشرية مع المستخدمين وهو قادر على التفاعل و تقديم ردود قريبة بشكل مدهش إلى الردود البشرية صنع بغرض خدمة العملاء عبر الإنترنت، ومصدره وبياناته تتمثل في الكتب المدرسية والمواقع الإلكترونية والمقالات المختلفة والتي يستفيد منها في استجابة للتفاعل البشري. وبيّنت أن البرنامج يستجيب فعلياً لأي طلب بسرعة ووضوح مذهلين، في حين أن كثيرا من روبوتات المحادثة لا تعرف سوى كيفية الرد على كلمات رئيسة أو محفزات معينة، يمكن لـ”تشات جي بي تي” الرد على الأسئلة المعقدة وتقديم إجابات شاملة بالإضافة إلى قدرته على الاعتراف بأخطائه، ورفض الطلبات غير المناسبة. ولفتت الدكتورة رشا حجازي، إلى أن الإصدار الجديد GPT-4 أكثر دقة من الإصدار الأول الشات جي بي تي GPT-3.5 حيث يستطيع تحليل الصور وفهم ما بداخلها يفهم أكثر من السابق، مهما تعددت أشكال المعلومة وطرق إدخالها بالإضافة إلى قدرته على معالجة الصور وإيجاد أهم معلومات موجودة داخلها وترجمة الملصقات الموجودة على السلع الغذائية ويقدم وصفات طعام باستخدامها ضمن المكونات، أو يقرأ الخريطة ويرشدك للطريق الصحيح. وأشادت بنموذج GPT-4 لأنه أفضل بنسبة 40% من الإصدار السابق GPT-3.5 في تقديم الردود الواقعية، بقدرات تفكير متقدمة أكثر كم أنه قادرا على رفض نسبة 82% من الأسئلة الخطر. وتحذر حجازي من مخاطر الأداة بالقول: “من أهم المشكلات التي تثير القلق من استخدام الشات التزوير والمعلومات المضللة، والجريمة الإلكترونية حيث أنه قادر على تصميم نص منطقي للغاية يجعله أداة مفيدة من أجل أغراض التصيد، كما أنه قادر على إعادة إنتاج أنماط لغة يمكن استخدامها لانتحال أسلوب خطاب أفراد أو جماعات معينة، وبالتالي إلصاق التهم بالآخرين هذا فضلا عن المعلومات المضللة حيث أنه يتفوق في إنتاج نص أصلي بسرعة، مما يجعله النموذج الأمثل للمعلومات المضللة”. واختتمت الدكتورة رشا حجازي حديثها بقولها: إن الاستخدام المتزايد للتقنيات الرقمية وتقنيات الذكاء الاصطناعي يثير المخاوف بشأن الخصوصية وإساءة استخدام البيانات في أغراض المراقبة والتجسس، فلم يعد ضروريا اقتفاء آثار الأشخاص برصد تحركاتهم أو وضع أجهزة تنصت في هواتفهم لجمع تفاصيل دقيقة عنهم فهذه التقنيات تعد وسائل مراقبة زهيدة الثمن ومتاحة على نطاق واسع، إذ قد تستخدمه جهات متعددة حيث يستطيع التطبيق أن بجمع كميات هائلة من بيانات المستخدمين ويجمع تفاصيل مثل مواقع المستخدمين ونوع أجهزتهم الإلكترونية التي يستخدمونها والتطبيقات الأخرى الموجودة على الجهاز وتفضيلاتهم والحالة المزاجية وكلها بيانات يمكن بسهولة استخدامها في التجسس والمراقبة.
مشاركة :