CSAM هو نظام جديد قيد التطوير في شركة Apple والذي يُحدث الكثير من الضجيج في الوقت الحالي، نظرًا لأن هدفه هو اكتشاف المحتوى الإباحي للأطفال بين صور مستخدمي iCloud Photos. كما قامت الشركة الموجودة في كاليفورنيا بنشر الأسئلة الشائعة لمحاولة تهدئة حماسة المدافعين عن الخصوصية،الأسئلة الشائعة المفصلة هنا.
لمحاولة فهم المستخدمين بشكل أفضل لكيفية اعتزام Apple احترام الطبيعة الخاصة للصور وتحديد النشاط غير القانوني لعرض محتوى إباحي للأطفال، رد Erik Neuenschwander، رئيس قسم الخصوصية في Apple، أو رئيس خصوصية Apple، على عدة أسئلة من TechCrunch. وهذه هي النقاط المهمة من المقابلة في رأينا.
التحليل من جانب الجهاز، على عكس الخدمات السحابية الأخرى
يؤكد لنا Erik Neuenschwander: نظام Apple كذلكمختلفة عن الأنظمة السحابية الأخرىللبحث عن محتوى إباحي للأطفال، نظرًا لأن التحليل الأساسي يتم على جهاز المستخدم وليس في السحابة. إنه ابتكار تكنولوجي، مرة أخرى وفقًا لمدير Apple، يجعل من الممكن البحث عن الصور غير القانونية مع الحفاظ على سرية بيانات المستخدم.
كيف يعمل؟
يقوم النظام في الواقع بإنشاء معرف للصورة الحساسة، وهو معرف يقارن بالصور الموجودة في قواعد بيانات الصور الإباحية للأطفال المعترف بها، مثل قاعدة بيانات مركز الأطفال المفقودين والمستغلين.
يؤكد لنا Erik Neuenschwander أن النظام لا يمكنه أبدًا الوصول إلى البيانات الموجودة على iPhone أو حتى مكتبة صور iCloud الخاصة بالمستخدم بالكامل.
© Appleبالإضافة إلى ذلك، منذ اللحظة التي يتم فيها تحديد عدد معين من الصور الحساسة على أنها مطابقة للصور الموجودة في قواعد البيانات المستخدمة للمقارنة، يتم إصدار التنبيه. لذلك هناك شيء معين يجب تجاوزه. وهذا يسمح، من بين أمور أخرى، بأن يكون بمثابة القيد الأول على ظهور النتائج الإيجابية الكاذبة. لكن هذا الحد أيضًا يجعل من المستحيل البحث عن صورة واحدة داخل حساب iCloud Photos. وأخيرًا، يمنع البحث عن صور غير تلك التي كانت تستهدف في البداية مكافحة استغلال الأطفال في المواد الإباحية.
CSAM حصريًا لـ iCloud والولايات المتحدة الأمريكية
في البداية، سيكون النظام حصريًا لمستخدمي الولايات المتحدة وسيؤثر فقط على الصور التي يتم تحميلها على iCloud.بحسب ما أوردته MacRumorsلن يكون من المستحيل أن يكون الانتشار في الخارج ضروريًا في مرحلة لاحقة. لكن هذا سيعتمد على كل دولة مستهدفة ومدى صرامة تقنينها من حيث السرية واستغلال الأطفال في المواد الإباحية.
على أي حال، سيتم البدء في اكتشاف الصور بعد إصدار أنظمة التشغيل الجديدة iOS 15 وmacOS Monterey وiPadOS 15. تذكر أن Apple ليست أول شركة تكنولوجية تطبق مثل هذا النظام لمكافحة التصوير الفوتوغرافي للمواد الإباحية للأطفال. جوجل، عبر أداة CyberTipline,يمكن تنبيهك إذا تمت مشاركة صور إباحية للأطفال بواسطة مستخدم Gmail.
ما رأيك في نظام CSAM الجديد من Apple لاكتشاف المحتوى الإباحي للأطفال على iCloud؟
i-nfo.fr - تطبيق iPhon.fr الرسمي
بواسطة: كيليوبس AG
رئيس تحرير موقع iPhon.fr. بيير مثل إنديانا جونز، يبحث عن خدعة iOS المفقودة. وهو أيضًا مستخدم Mac منذ فترة طويلة، ولا تحمل أجهزة Apple أي أسرار له. جهة الاتصال: بيير[أ]iphon.fr.