ردت شركة آبل على الانتقادات الموجهة لها بشأن خطتها لمسح الصور على أجهزة آيفون iPhone وبوحدات تخزين iCloud بحثًا عن صور الاعتداء الجنسي على الأطفال. اقرأ أيضًا: (تفاصيل) تغييرات كبيرة قادمة مع آيفون الجديد وبحسب صحيفة "ديلي ميل" البريطانية، أصرت شركة آبل على أنه لا يمكن استغلال نظامها للبحث عن الصور المتعلقة بأي شيء بخلاف مواد الاعتداء الجنسي على الأطفال (CSAM)، جاء ذلك في وثيقة الأسئلة المتداولة التي تركز على "الحماية الموسعة للأطفال". وصرحت آبل إن النظام لن يمسح ألبومات الصور ضوئيًا ، ولكنه يبحث عن المطابقات استنادًا إلى قاعدة بيانات "التجزئة" - وهي نوع من البصمات الرقمية - لصور CSAM المعروفة التي توفرها منظمات سلامة الأطفال. وبينما أعربت دعاة الخصوصية عن قلقهم بشأن تلك الاجراءات، أعلنت شركة آبل بأن "احتمال قيام النظام بالإبلاغ بشكل غير صحيح عن أي حساب هو أقل من واحد من كل تريليون حساب سنويًا". وأدعت شركة آبل أيضًا أنها سترفض أي مطالب من هذا القبيل من الوكالات الحكومية ، في الولاياتالمتحدة أو في الخارج. أعلنت الشركة التي تتخذ من كوبرتينو مقراً لها ، الخميس الماضي ، عن النظام الجديد الذي يستخدم الخوارزميات والذكاء الاصطناعي لمسح الصور بحثًا عن التطابقات مع مواد الإساءة المعروفة المقدمة من المركز الوطني للأطفال المفقودين والمستغلين ، وهو مركز تبادل معلومات رائد للوقاية والتعافي من إيذاء الأطفال. أشادت مجموعات الدفاع عن الأطفال بهذه الخطوة ، لكن المدافعين عن الخصوصية مثل جريج نوجيم من مركز الديمقراطية والتكنولوجيا يقولون إن شركة آبل "تستبدل نظام الرسائل المشفر من طرف إلى طرف المعياري الصناعي ببنية تحتية للمراقبة والرقابة". شاركت شركات التكنولوجيا الأخرى ، بما في ذلك Microsoft و Google و Facebook ، ما يُعرف ب "قوائم التجزئة" للصور المعروفة عن الاعتداء الجنسي على الأطفال.