في أغسطس 2021 ، كشفت شركة Apple عن خططها لفحص أجهزة iPhone بحثًا عن صور الاعتداء الجنسي على الأطفال. قوبلت هذه الخطوة بإشادة مجموعات حماية الطفل ولكنها أثارت مخاوف بين خبراء الخصوصية والأمن من احتمال إساءة استخدام الميزة.
خططت Apple في البداية لتضمين تقنية مسح مواد الاعتداء الجنسي على الأطفال (CSAM) في نظام التشغيل iOS 15 ؛ بدلاً من ذلك ، أخرت إطلاق الميزة إلى أجل غير مسمى لطلب التعليقات قبل إصدارها الكامل.
فلماذا أصبحت ميزة اكتشاف CSAM موضوع نقاش ساخن ، وما الذي جعل Apple تؤجل طرحها؟
ماذا تفعل ميزة مسح الصور من Apple؟
أعلنت شركة آبل عن تطبيق ميزة المسح الضوئي على أمل مكافحة الاعتداء الجنسي على الأطفال. سيتم فحص جميع الصور الموجودة في أجهزة مستخدمي Apple بحثًا عن محتوى مشتهي الأطفال باستخدام خوارزمية "NueralHash" التي أنشأتها Apple.
بالإضافة إلى ذلك ، فإن أي أجهزة Apple يستخدمها الأطفال سيكون لها ميزة أمان تعمل تلقائيًا طمس صور البالغين إذا استقبلها طفل ، وسيتم تحذير المستخدم مرتين إذا حاول فتح معهم.
بصرف النظر عن تقليل التعرض لمحتوى البالغين ، إذا قام الآباء بتسجيل الأجهزة التي يملكها أطفالهم من أجلها أمان إضافي ، سيتم إخطار الوالدين في حالة تلقي الطفل محتوى صريحًا من أي شخص عبر الانترنت.
اقرأ أكثر: ما تحتاج لمعرفته حول إجراءات حماية سلامة الأطفال من Apple
أما بالنسبة للبالغين الذين يستخدمون Siri للبحث عن أي شيء يجعل الأطفال جنسيًا ، فلن يقوم Siri بهذا البحث ويقترح بدائل أخرى بدلاً من ذلك.
سيتم فك تشفير البيانات من أي جهاز يحتوي على 10 صور أو أكثر تعتبرها الخوارزميات مشبوهة وإخضاعها للمراجعة البشرية.
إذا كانت هذه الصور أو أي صورة أخرى في الجهاز تتطابق مع أي شيء من قاعدة البيانات المقدمة من قبل المركز الوطني للأطفال المفقودين والمستغلين، سيتم إبلاغ السلطات بذلك وسيتم تعليق حساب المستخدم.
الاهتمامات الرئيسية المتعلقة بميزة المسح الضوئي للصور
كانت ميزة اكتشاف CSAM ستبدأ مع إطلاق iOS 15 في سبتمبر 2021 ، ولكن في الوجه بسبب الاحتجاج الواسع النطاق ، قررت شركة Apple قضاء المزيد من الوقت في جمع التعليقات وإجراء تحسينات على ذلك خاصية. هنا بيان شركة آبل الكامل على التأخير:
"لقد أعلنا الشهر الماضي عن خطط لميزات تهدف إلى المساعدة في حماية الأطفال من المحتالين استخدام أدوات الاتصال لتجنيدهم واستغلالهم ، والحد من انتشار الاعتداء الجنسي على الأطفال مادة.
بناءً على التعليقات الواردة من العملاء ومجموعات المناصرة والباحثين وغيرهم ، قررنا أن نأخذ وقتًا إضافيًا الأشهر القادمة لجمع المدخلات وإجراء تحسينات قبل إطلاق هذه العناصر الهامة للغاية المتعلقة بسلامة الأطفال الميزات".
ما يقرب من نصف المخاوف المتعلقة بميزة مسح الصور من Apple تدور حول الخصوصية ؛ تتضمن بقية الحجج احتمال عدم دقة الخوارزميات وإمكانية إساءة استخدام النظام أو ثغراته.
دعونا نقسمها إلى أربعة أجزاء.
سوء استخدام محتمل
إن معرفة أن أي مادة تتطابق مع المواد الإباحية للأطفال أو الصور المعروفة للاعتداء الجنسي على الأطفال ستضع الجهاز في القائمة "المشبوهة" يمكن أن تدفع مجرمي الإنترنت إلى التحرك.
يمكنهم قصف أي شخص عمدًا بمحتوى غير لائق من خلال iMessage أو WhatsApp أو أي وسيلة أخرى وتعليق حساب هذا الشخص.
أكدت شركة Apple أنه يمكن للمستخدمين تقديم استئناف في حالة تعليق حساباتهم بسبب سوء فهم.
الإساءة من الداخل
على الرغم من أنها مصممة لسبب خيري ، إلا أن هذه الميزة يمكن أن تتحول إلى كارثة كاملة لبعض الأشخاص إذا كانت أجهزتهم تم تسجيلهم في النظام ، بعلمهم أو بدون علمهم ، من قبل الأقارب المهتمين بمراقبة اتصالاتهم.
حتى لو لم يحدث ذلك ، فقد أنشأت Apple بابًا خلفيًا لجعل بيانات المستخدمين قابلة للوصول في نهاية اليوم. الآن ، إنها مسألة دافع وتصميم للناس للوصول إلى المعلومات الشخصية للآخرين.
متعلق ب: ما هو الباب الخلفي وماذا يفعل؟
إنه لا يسهل فقط انتهاكًا كبيرًا للخصوصية ، ولكنه أيضًا يمهد الطريق للإساءة أو السامة أو السيطرة الأقارب ، والأوصياء ، والأصدقاء ، والعشاق ، ومقدمي الرعاية ، والمخرجين لمزيد من غزو المساحة الشخصية لشخص ما أو تقييدها حرية.
من ناحية ، تهدف إلى مكافحة الاعتداء الجنسي على الأطفال ؛ من ناحية أخرى ، يمكن استخدامه لإدامة أنواع أخرى من الانتهاكات.
المراقبة الحكومية
لطالما وصفت شركة Apple نفسها بأنها علامة تجارية أكثر وعيًا بالخصوصية من منافسيها. لكن الآن ، ربما تكون قد دخلت في منحدر زلق من الاضطرار إلى تلبية المطالب التي لا تنتهي للشفافية في بيانات المستخدم من قبل الحكومات.
يمكن استخدام النظام الذي تم إنشاؤه للكشف عن المحتوى الجنسي للأطفال لاكتشاف أي نوع من المحتوى على الهواتف. وهذا يعني أن الحكومات التي لديها عقلية عبادة يمكنها مراقبة المستخدمين على المستوى الشخصي بشكل أكبر إذا وضعت أيديهم عليها.
سواء كان ذلك قمعيًا أم لا ، فإن مشاركة الحكومة في حياتك اليومية والشخصية يمكن أن تكون مزعجة ، كما أنها تعد انتهاكًا لخصوصيتك. إن فكرة أنك بحاجة إلى القلق بشأن مثل هذه الغزوات فقط إذا كنت قد فعلت شيئًا خاطئًا هي فكرة خاطئة ، وتفشل في رؤية المنحدر الزلق المذكور أعلاه.
الإنذارات الكاذبة
تعد الإنذارات الكاذبة واحدة من أكبر مخاوف استخدام الخوارزميات لمطابقة الصور مع قاعدة البيانات. يمكن أن تحدد خوارزميات التجزئة عن طريق الخطأ صورتين على أنهما متطابقتان حتى عندما لا تكونا متطابقتين. هذه الأخطاء ، المسماة "الاصطدامات" ، تنذر بالخطر بشكل خاص في سياق محتوى الاعتداء الجنسي على الأطفال.
وجد الباحثون عدة تصادمات في "NeuralHash" بعد أن أعلنت Apple أنها ستستخدم الخوارزمية لمسح الصور. أجابت شركة آبل على الاستفسارات حول الإنذارات الكاذبة بالإشارة إلى أن النتيجة سيراجعها إنسان في النهاية ، لذلك لا داعي للقلق بشأنها.
هل توقف CSAM من Apple دائم؟
هناك العديد من إيجابيات وسلبيات ميزة Apple المقترحة. كل واحد منهم حقيقي وله وزن. لا يزال من غير الواضح ما هي التغييرات المحددة التي يمكن أن تقدمها Apple لميزة مسح CSAM لإرضاء منتقديها.
يمكن أن يقصر المسح على ألبومات iCloud المشتركة بدلاً من إشراك أجهزة المستخدمين. من غير المحتمل جدًا أن تتخلى Apple عن هذه الخطط تمامًا لأن الشركة لا تميل عادةً إلى الاستسلام لخططها.
ومع ذلك ، فمن الواضح من رد الفعل العنيف على نطاق واسع وتأجيل شركة آبل لخططها ، ذلك يجب على الشركات دمج المجتمع البحثي من البداية ، خاصةً لغير المختبرين تقنية.
الأطفال هم أهداف رئيسية للمحتالين عبر الإنترنت والمتسللين عبر الإنترنت. يمكن لهذه النصائح المفيدة أن تعلم الآباء كيفية الحفاظ على سلامتهم على الإنترنت.
اقرأ التالي
- حماية
- ايفون
- خصوصية الهاتف الذكي
- تفاح
- الخصوصية عبر الإنترنت
- مراقبة
فؤاد مهندس تكنولوجيا معلومات واتصالات ورائد أعمال طموح وكاتب. دخل مجال كتابة المحتوى في عام 2017 وعمل مع وكالتين للتسويق الرقمي والعديد من عملاء B2B و B2C منذ ذلك الحين. يكتب عن Security and Tech في MUO ، بهدف تثقيف الجمهور وترفيهه وإشراكه.
اشترك في نشرتنا الإخبارية
انضم إلى النشرة الإخبارية لدينا للحصول على نصائح تقنية ومراجعات وكتب إلكترونية مجانية وصفقات حصرية!
انقر هنا للاشتراك