خطة آبل لسلامة الأطفال تتضمن مستويات متعددة

  • 8/14/2021
  • 00:00
  • 1
  • 0
  • 0
news-picture

قال كريج فيديريغي إن خطط شركة آبل للبحث عن مواد الاعتداء الجنسي على الأطفال أو CSAM ضمن صور آيكلاود تتضمن مستويات متعددة من إمكانية التدقيق. وقدم فيديريغي، نائب الرئيس الأول لهندسة البرمجيات في شركة آبل، في مقابلة مع صحيفة وول ستريت جورنال تفاصيل جديدة حول إجراءات سلامة الأطفال المثيرة للجدل. ويتضمن ذلك ادعاءً بأن الفحص على مستوى جهاز آيفون وآيباد يساعد خبراء الأمن في التحقق من أن الشركة تستخدم النظام بشكل مسؤول. ومثل العديد من الشركات التي لديها خدمات التخزين السحابي، تتحقق الشركة من صور آيكلاود عبر مقارنتها بقائمة من المركز الوطني للأطفال المفقودين والمستغلين NCMEC. وذلك للبحث عن التطابقات الدقيقة مع صور CSAM المعروفة. ولكن على عكس العديد من الخدمات، فإنه يتم إجراء عمليات بحث عبر الجهاز، وليس عن بعد بالكامل. وأوضح فيديريجي كيف أن هذا قد يمنح الناس الثقة لأن الشركة لا توسع قاعدة البيانات بشكل كبير لتشمل مواد إلى جانب CSAM غير القانونية، لا سيما في البلدان ذات سياسات الرقابة التقييدية. وقال: نشحن نفس البرنامج في الصين بنفس قاعدة البيانات التي نشحنها في أمريكا، كما نشحن في أوروبا. وإذا كان هناك شخص ما يأتي إلى الشركة مع طلب المسح بحثًا عن بيانات تتجاوز CSAM، فإن الشركة تقول لا. وأضاف: إذا كنت غير واثق فإن ذلك يعني أنك تريد أن تتأكد من أن الشركة لن تتمكن من الإفلات من العقاب إذا وافقت. لذلك هناك مستويات متعددة من قابلية التدقيق. ونتأكد من أنك لست مضطرًا إلى الوثوق بأي كيان واحد، أو حتى في أي دولة واحدة، فيما يتعلق بالصور التي تشكل جزء من هذه العملية. اقرأ أيضًا: طرق تحميل صفحات الإنترنت كملف PDF عبر آيفون خطة آبل تتضمن مستويات متعددة قالت الشركة سابقًا إنها تطرح النظام في الولايات المتحدة فقط وإنها تنظر في إطلاقه في بلدان أخرى على أساس كل حالة على حدة. وأكدت الشركة أنها تشحن قاعدة بيانات التجزئة الخاصة بـ CSAM المعروفة عبر نظام التشغيل في جميع البلدان. ولكن يتم استخدامها للمسح في الولايات المتحدة فقط. وتوضح صحيفة وول ستريت جورنال كذلك أنه يكون هناك مدقق مستقل يمكنه التحقق من الصور المعنية. وقدم فيديريجي أيضًا مزيدًا من التفاصيل حول موعد قيام نظام المسح بإخطار مشرفي الشركة بالمحتوى غير القانوني المحتمل. وقالت آبل من قبل أن تطابق واحد لن يؤدي إلى ظهور علامة حمراء، وهو إجراء يهدف إلى منع الإيجابيات الخاطئة. وبدلاً من ذلك، ينشئ النظام قسائم أمان لكل تطابق وينبه الشركة إذا وصل الرقم إلى حد معين. ورفضت الشركة الإعلان عن الرقم الدقيق، قائلة إن هذا قد يسمح للمسيئين بالتهرب من الكشف. ولكن فيديرجي يقول إن الرقم يتعلق بوجود 30 صورة إباحية معروفة للأطفال. وقدم بعض خبراء الأمن مدحًا حذرًا لنظام الشركة واعترفوا بأهمية العثور على CSAM عبر الإنترنت. ولكن الكثيرين انتقدوا الطرح المفاجئ وعدم وضوح كيفية عمل النظام. وفي مقابلته مع الصحيفة، اعترف فيديريجي بالارتباك. وقال: من الواضح أن الكثير من الرسائل اختلطت بشكل سيئ فيما يتعلق بكيفية فهم الأشياء. اقرأ أيضًا: تعرف على طرق آبل لحماية البريد الإلكتروني وخصوصيتك

مشاركة :