القراء مثلك يساعدون في دعم MUO. عند إجراء عملية شراء باستخدام الروابط الموجودة على موقعنا ، فقد نربح عمولة تابعة. اقرأ أكثر.

أعلنت Apple عن خطط لفحص محتوى iCloud الخاص بك بحثًا عن مواد الاعتداء الجنسي على الأطفال (CSAM) في أغسطس 2021 لحماية الأطفال من سوء المعاملة من قبل المحتالين.

خططت الشركة لإطلاق ميزة جديدة للكشف عن CSAM في iCloud Photos والتي من شأنها أن تقوم بالبحث عن مثل هذا المحتوى والإبلاغ عن الصور المطابقة لشركة Apple مع الحفاظ على خصوصية المستخدم.

ومع ذلك ، قوبلت الميزة الجديدة بردود فعل متباينة. منذ أكثر من عام منذ الإعلان الأولي ، تتخلى Apple رسميًا عن خطتها لمسح صور iCloud بحثًا عن CSAM.

آبل تسقط خطتها لمسح iCloud بحثًا عن مواد إساءة معاملة الأطفال

وفقا لتقرير من قبل سلكي، تتخلى Apple عن خطتها لفحص iCloud الخاص بك بحثًا عن محتوى إساءة معاملة الأطفال. ستقوم الأداة بمسح الصور المخزنة على iCloud للعثور على تلك التي تطابق صور CSAM المعروفة كما حددتها منظمات سلامة الأطفال. يمكنه بعد ذلك الإبلاغ عن هذه الصور لأن امتلاك صور CSAM غير قانوني في معظم الولايات القضائية ، بما في ذلك الولايات المتحدة.

instagram viewer

لماذا ألغت Apple خطتها لمسح صور iCloud

بعد الإعلان الأولي في عام 2021 ، واجهت Apple رد فعل عنيف من العملاء والمجموعات والأفراد الذين يدافعون عن الخصوصية الرقمية والأمن في جميع أنحاء العالم. عادةً ما توفر أجهزة iPhone أمانًا أكثر من أجهزة Android، واعتبر الكثيرون هذا بمثابة خطوة إلى الوراء. على الرغم من أن ذلك كان بمثابة فوز لمنظمات سلامة الأطفال ، إلا أن أكثر من 90 مجموعة سياسية كتبت رسالة مفتوحة إلى Apple في وقت لاحق من نفس الشهر ، تطلب فيها من الشركة إلغاء الخطة.

جادل الخطاب أنه في حين أن الأداة تعتزم حماية الأطفال من سوء المعاملة، يمكن الاستفادة منه لفرض رقابة على حرية التعبير وتهديد خصوصية المستخدم وأمنه. بسبب الضغط المتزايد ، أوقفت Apple خطط الإطلاق الخاصة بها لجمع التعليقات وإجراء التعديلات اللازمة على الميزة. ومع ذلك ، لم تؤيد التعليقات خطة Apple لمسح صور iCloud ، لذا فإن الشركة تتخلى رسميًا عن الخطط للأبد.

وقالت الشركة في بيان لـ WIRED:

"لدينا... قررت عدم المضي قدمًا في استخدام أداة اكتشاف CSAM المقترحة مسبقًا لصور iCloud. يمكن حماية الأطفال دون قيام الشركات بتمشيط البيانات الشخصية ، وسنواصل العمل مع الحكومات والمدافعين عن حقوق الأطفال و شركات أخرى للمساعدة في حماية الشباب ، والحفاظ على حقهم في الخصوصية ، وجعل الإنترنت مكانًا أكثر أمانًا للأطفال ولنا الجميع."

خطة Apple الجديدة لحماية الأطفال

تعيد Apple توجيه جهودها لتحسين ميزات أمان الاتصالات التي تم الإعلان عنها في أغسطس 2021 وتم إطلاقها في ديسمبر من نفس العام.

أمان الاتصالات اختياري ويمكن أن يستخدمه الآباء والأوصياء لحماية الأطفال من إرسال واستقبال الصور الجنسية الصريحة في iMessage. تعمل الميزة تلقائيًا على تعتيم مثل هذه الصور ، وسيتم تحذير الطفل من المخاطر التي تنطوي عليها. كما يحذر أي شخص إذا حاول البحث عن CSAM على أجهزة Apple.

مع إلغاء خطط إطلاق أداة اكتشاف CSAM ، تتطلع الشركة إلى تحسين الميزة بشكل أكبر وتوسيعها لتشمل المزيد من تطبيقات الاتصال.