شركة كاليفورنيا عالقة في أعاصفة من الانتقاداتوآخرونمن عدم الفهمبعد الإعلان عن تطبيق أدوات مراقبة المحتوى الجديدة. على وجه الخصوص، يريدون السماح لسكان كاليفورنيا بالتعرف على أي صورة ذات طبيعة إباحية للأطفال وبالتالي تحديد المستخدمين الذين يشاركون هذا المحتوى، وهي ممارسة من الواضح أنها غير قانونية، سواء في فرنسا أو الولايات المتحدة أو أي مكان آخر في العالم.
إذا كانت رغبة شركة أبل في البداية حسنة النية، فمع هذه المعركة من أجل حماية الأطفال، يشعر الكثيرون بالقلق بشأن الانتهاكات المحتملة لما يبدو أنه حماية للأطفال.الخطوة الأولى نحو المراقبة الجماعية للمستخدمين.
لذا، في محاولة للطمأنة، نشرت الشركة مؤخرًا تقريرًاالأسئلة الشائعة أو الأسئلة المتداولةركزت بشكل خاص على نظام حماية الطفل الجديد. وهنا ما تعلمناه هناك.
ما هي الأدوات التي نتحدث عنها؟
تحدد Apple في الأسئلة الشائعة الخاصة بها أن نظام حماية الأطفال الجديد هذا يعتمد في الواقع على أداتين، لذلك لا ينبغي الخلط بينهما: التحذير من المحتوى الجنسي في iMessage والكشف عن المحتوى الإباحي للأطفال في iCloud، الملقب بـ CSAM لمواد الاعتداء الجنسي على الأطفال.
أداة التحذير من الصور الجنسية
حصريًا لصور iMessage
وكما ذكرنا أعلاه فإن أول الأداتين هي آلية التحذير من الصور الجنسية. وهو يركز على الصور المرسلة بواسطة iMessage، مع إجراء التحليلمحليا، على الجهاز. وهو نشط علىأي حساب طفل تم تكوينه عبر Family Sharingويمكن إلغاء تنشيطه من قبل المستخدم الذي لديه الحقوق، وهو أحد الوالدين عمومًا. الغرض منه هو استخدامه لتحذير الأطفال قبل الوصول إلى صورة ذات طبيعة جنسية يمكن أن تصدمهم. عندما تكون الأداة نشطة، فإنها تعمل على طمس أي صورة حساسة ويتم تحذير الطفل. يتيح لك أحد الخيارات أيضًا إخطار أحد الوالدين عندما يشاهد الطفل صورة تحددها هذه الأداة.
© أبل
كما تحدد شركة أبل، هذه الأداةلا يشكك في التشفير الشامل الذي يقوم عليه iMessage. وبالتالي، لا تستطيع الشركة الوصول في أي وقت إلى محتويات تبادلات iMessage. تحليل الصورة يتم فقط من الجهاز المستخدم لفتح الصورة، في نهاية التبادل، ومحليا، تذكر.
بالإضافة إلى ذلك، تقول أبللا تشارك أي معلومات خاصة بالكشف عن الصور الجنسية في هذا السياق مع أي سلطة.
أداة الكشف عن المحتوى الإباحي للأطفال CSAM
والأداة الثانية هي آلية الكشف عن الصور الإباحية للأطفال. إنه نشط فقط على صور iCloud. انظر التفاصيل أدناه.
ما المحتوى الذي يتم تحليله بواسطة CSAM؟
لا يتم إجراء تحليل لمحتوى CSAMكما في الصوروليس الفيديوهات. بالإضافة إلى،الصور التي تم تحميلها على iCloud فقطتؤخذ في الاعتبار. إذا كنت لا تستخدم النسخ الاحتياطي على iCloud، فلن تمر صورك عبر أداة فحص المواد الإباحية للأطفال من Apple.
لا يقوم CSAM بمسح الصور ضوئيًا من مكتبة الصور المحلية لديك على iPhone أو iPad أو محتوى iMessage. وبالتالي لا يوجد أي انتهاك للتشفير الشامل لخدمة الرسائل النصية من Apple. أما بالنسبة للخصوصية على iCloud، فهذا سؤال آخر.
هل يستطيع الإنسان مشاهدة صور iCloud؟
ليس بشكل منهجي. تم اكتشاف صورة ذات طبيعة إباحية للأطفال على مساحة iCloud الخاصة بالمستخدم باستخدام الذكاء الاصطناعي وتم إجراء مقارنة مع بنوك الصور الموجودة بالفعل من NCMEC (المركز الوطني للأطفال المفقودين والمستغلين) وجمعيات حماية الطفل الأخرى.
تحدد Apple أيضًا بهذا المعنى أنالنتائج الإيجابية الكاذبة نادرة للغاية: أقل من 1 لكل مليار سنويا، وفقا للشركة.
بمجرد اكتشاف الصورة بواسطة الذكاء الاصطناعي، يتم بعد ذلك تعريضها للتحليل البشري للتحقق من صحة الاكتشاف أو إبطاله. تضمن شركة Apple أن الأبرياء ليس لديهم ما يخشونه.
ما هي عواقب الكشف الإيجابي؟
إذا تم اعتبار حساب iCloud، بعد التحليل البشري، يحتوي على صور إباحية للأطفال، فسيتم إخطار NCMEC. ومع ذلك، فإن العواقب التي أعقبت هذا التنبيه إلى NCMEC غير معروفة. وقد يتم بعد ذلك إخطار السلطات المختصة لإدارة الملف والمستخدم المحدد.
التوسع في محتوى آخر في المستقبل؟
تؤكد الشركة الواقعة في كاليفورنيا أن نظامها تم تصميمه للتركيز فقط على المحتوى الإباحي للأطفال. بالإضافة إلى ذلك، فإنها تحدد أنها سترفض أي طلب حكومي لإضافة محتوى آخر إلى نظام الكشف. بالنسبة لشركة كوبرتينو العملاقة، فإن الأمر يتعلق فقط بالكشف عن الصور الإباحية للأطفال، ولا شيء آخر.
امتدادا لخدمات الطرف الثالث؟
كما تقارير MacRumors، تهدف Apple إلى نشر هذا الكشف عن الصور الإباحية للأطفال أيضًا على أدوات الطرف الثالث. نفكر، على سبيل المثال، في WhatsApp أو Instagram أو حتى صور Google. ولكن حتى الآن، هذا ليس هو الحال بعد. الصور الموجودة على iCloud فقط هي التي تتأثر حاليًا بتحليل CSAM.
تم استخدام Siri وSpotlight أيضًا
وتشير آبل إلى أن بحث Siri وSpotlight سيكونان قادرين أيضًا على المشاركة في هذه المعركة من أجل حماية الأطفال، من خلال عرض المزيد من المعلومات العملية حول الموضوع أثناء طلبات Siri وعمليات بحث Spotlight من iPhone وiPad.
© أبل
الأدوات النشطة من متى؟
سيتم تنفيذ ميزات الكشف عن الصور الجنسية والصور الإباحية للأطفال في iOS 15 وiPadOS 15 وmacOS Monterey وwatchOS 8 والإصدارات الأحدث، في تاريخ لا يزال غير معروف.
i-nfo.fr - تطبيق iPhon.fr الرسمي
بواسطة: كيليوبس AG