• الرئيسية
  • الأخبار
  • هذا كل ما تحتاج معرفته عن تحديث أبل لسلامة الأطفال عبر تقنية المسح التلقائى

هذا كل ما تحتاج معرفته عن تحديث أبل لسلامة الأطفال عبر تقنية المسح التلقائى

  • 160
أرشيفية

 أعلنت شركة أبل أنها ستصدر بروتوكولاً جديداً ينص على المسح التلقائي لأجهزة الآيفون والآيباد للتحقق من صور المستخدم المسيئة جنسياً للأطفال (CSAM)، وتهدف الشركة بذلك إلى الحد من انتشار المواد المسيئة جنسياً للأطفال، إلى جانب ميزات أخرى "لحماية الأطفال من المسيئين الذين يستغلون أدوات التواصل لتجنيدهم واستغلالهم" وفقاً لما ذكرته شركة أبل في منشور لها على مدونتها، في الوقت الحالي، تتوفر هذه الميزة في الولايات المتحدة فقط.
 
ومن المقرر أن تضيف أبل هذه الميزة الجديدة في IOS 15 وآيباد OS 15 في غضون الشهرين المقبلين حيث تقوم تلقائياً بمسح الصور على جهاز المستخدم لمعرفة ما إذا كانت تتطابق مع محتوى مسيء جنسياً للأطفال محدد مسبقاً.
 
كما أضافت أبل نظامين يمكن للأهل تمكينهما اختيارياً للأطفال في شبكتهم العائلية، أولاً، عبر تحليل تطبيق الرسائل ومسح الصور الواردة والصادرة بحثاً عن المواد التي قد تكون صريحة جنسياً، ومن ثم تعتيمها افتراضياً، ويمكن أن يُبلغ الإعداد الاختياري الوالدين المرتبطين بالحساب إذا عُرض المحتوى.
 
كما تعمل أبل على تمكين سيري وسيرتش من إظهار موارد مفيدة إذا أبلغ المستخدم عن وجود مواد مسيئة جنسياً للأطفال، حيث يتدخل كلاهما عندما يبحث المستخدمون عن استفسارات تتعلق بـهذه المواد، لإبلاغ الباحث بالإمكانات الضارة للمادة والإشارة إلى سبل الحصول على المساعدة.

هل يؤثر هذا على المستخدم العادي؟
إذا لم يكن لديك صور مسيئة للأطفال على جهازك الآيفون أو الآيباد، لن يتغير شيء لديك. وإذا لم تطلب استعلام سيري أو البحث عبر الإنترنت عن مواضيع تتعلق بالصور المسيئة للأطفال، فلن يتغير شيء.
 
وإذا أعددت حساب الآيفون والآيباد مع عائلة في آي كلاود وخُصص جهازك على أنه لطفل في تلك الشبكة، فسترى تحذيرات وصوراً ضبابية في حالة تلقي صور مسيئة صريحة. أما إذا لم يكن جهازك مرتبطاً بشبكة عائلية تبين أنه لطفل، فلن يتغير شيء بالنسبة لك.
 
ولن يحصل جهازك على أي من هذه الميزات إذا لم تقم بالترقية إلى iOS 15 أو آيبادOS 15 أو ماك أو إس مونتيري.
 
ما هدف أبل من هذا؟
من منظور أخلاقي، تعمل أبل ببساطة على تمكين الآباء من حماية أطفالهم وأداء خدمة مجتمعية من خلال الحد من الصور المسيئة جنسياً للأطفال، وبما أن أبل تعرضت للعديد من الدعاوى القضائية على مر السنين، دفع هذا الشركة على ما يبدو إلى مزيد من حماية الخصوصية، كما ذكرت صحيفة الغارديان. وربما دفع الشركة إلى منح المستهلكين مزيداً من التحكم، أو على الأقل التوافق مع إجراءات الشركة المزمع تطبيقها.
 
ولم يعثر موقع تيك رادار على دعوى قضائية معينة من شأنها أن تضغط على أبل لإجراء هذه التغييرات، ولكن من المحتمل أن الشركة تحمي نفسها بشكل استباقي من خلال منح المستخدمين الأصغر سناً المزيد من أدوات الحماية الذاتية بالإضافة إلى القضاء على الصور المسيئة للأطفال على خوادم آي كلاود الخاصة بها وأجهزة الآيفون بشكل عام، ما يحدّ من مسؤولية أبل في المستقبل.
 
بعد فترة وجيزة من تقديم أبل لمبادراتها الجديدة، أعرب خبراء الأمن والمدافعون عن الخصوصية عن قلقهم بشأن أساليب أبل في استكشاف أجهزة المستخدم، إذ لا يبدو أن ميزة مسح المواد المسيئة اختيارية بل من المؤكد أنها مدرجة في نظام التشغيل iOS 15 افتراضياً، ولا يمكن فصلها عن نظام التشغيل بمجرد تنزيلها.
 
وإذا تطابق قدر معين من الصورة مع خليط المواد المسيئة للأطفال أثناء المسح، تقوم أبل يدوياً بمراجعة الصورة التي أبلغ عنها، وإذا قرروا أن المواد المسيئة موجودة، يغلق حساب المستخدم وتقدم بياناته إلى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC)، الذي يتعاون مع سلطات إنفاذ القانون.
 
تحرص أبل على إبقاء بيانات المستخدم مشفرة وغير قابلة للقراءة من قبل موظفي الشركة ما لم تنتهك حداً من التشابه مع المواد المسيئة للأطفال المعروفة. وأكدت شركة أبل أن الميزة تضمن توفير مستوى عالٍ للغاية من الدقة ويضمن أقل من واحد من كل تريليون فرصة سنوياً للإبلاغ عن حساب معين بشكل غير صحيح.
 
لكن المسح التلقائي هو الذي جعل المدافعين عن الخصوصية يحتجون بشدة. فقد كتبت مؤسسة الحدود الإلكترونية (EFF) غير الربحية للخصوصية الرقمية في مدونتها رداً على مبادرة أبل التي اعتبرت أنها تفتح الباب أمام انتهاكات أوسع: "كل ما يتطلبه الأمر لتوسيع الباب الخلفي الضيق الذي تقوم أبل ببنائه هو توسيع معايير التعلم الآلي للبحث عن أنواع إضافية من المحتوى، أو تعديل أعلام التكوين لمسح حسابات أي شخص، ليس فقط للأطفال".
 
وأضافت: "إنه نظام مبني بالكامل ينتظر ضغطاً خارجياً لإجراء أدنى تغيير"، مشيرة إلى القوانين التي صدرت في بلدان أخرى والتي تتطلب من المنصات فحص محتوى المستخدم، مثل قواعد الهند الأخيرة لعام 2021.
 
وبالمثل، عارض آخرون مبادرة أبل للمسح التلقائي، بما فيهم ويل كاثكارت، رئيس خدمة رسائل واتساب المملوكة لشركة فيسبوك، والذي أشار في سلسلة تغريدات على تويتر إلى تسهيل واتساب الأمر على المستخدمين للإبلاغ عن مواد مسيئة جنسياً للأطفال، والتي أدت حسب زعمه إلى الإبلاغ عن أكثر من 400 ألف حالة إلى المركز الوطني للأطفال المفقودين والمستغلين العام الماضي، "كل ذلك دون كسر التشفير".
 
وذكر آفي جرينجارت، مؤسس شركة الأبحاث والتحليل التكنولوجي Techsponential، لـموقع تيك رادار عبر رسالة على تويتر: "قد يكون قلق مؤسسة الحدود الإلكترونية وغيرها من المدافعين عن الخصوصية بشأن إساءة الاستخدام مخيفاً أو رد فعل مبالغاً فيه لذلك تحتاج أبل إلى تقديم المزيد من التفاصيل".
 
"ومع ذلك، بصفتي أباً، فإنني أحب فكرة أن iMessage سيضع علامة على الرسائل ذات المحتوى السيء للأطفال قبل الإرسال؛ أو أي شيء يؤدي إلى إبطاء العملية مؤقتاً ويمنح الأطفال فرصة للتفكير في العواقب".