تحديث - استغلال الأطفال في المواد الإباحية: توضيح نقطة الضعف المحتملة في نظام CSAM الخاص بشركة Apple

تحديث: اختبر أحد الباحثين ما قد تستخدمه Apple كطريقة ثانية للتحقق من الصور الحساسة للحد من النتائج الإيجابية الكاذبة، وقد نجح في ذلك. مزيد من التفاصيل في نهاية المقال.

لم تنته شركة Apple من الدفاع عن نظامها الجديد للكشف عن المواد الإباحية للأطفال في iCloud. والاكتشاف الجديد الذي قام به المطور Asuhariet Ygvar قبل عدة إقامات لن يساعد شؤون العملاق في كاليفورنيا. وفي الواقع، قام الرجل بتحليل ما يسمى بخوارزمية التشفير "NeuralHash" التي يعتمد عليها اكتشاف CSAM من Apple، وهو الترميز الموجود في iOS 14.3. حتى أنه كان قادرًا على إعادة إنشاء نسخته الخاصة من النظام بلغة برمجة بايثون.

وبهذا أثبت أن صورتين بعيدتين جدًا يمكنهما الحصول على نفس معرف NeuralHash. وهذا أمر مثير للقلق نظراً للإيجابيات الكاذبة التي يمكن أن يخلقها اكتشاف شركة Apple للصور الإباحية للأطفال.

ولم يفشل ذلك في إثارة رد فعل من شركة آبل التي أوضحت على الفور،من نائبأن الإصدار الذي يظهر على GitHub لاكتشاف الصور ليس هو الإصدار الذي تستخدمه Apple لنظام CSAM الخاص بها. تمكن مهندسو Apple من تنفيذ إصدار أكثر تقدمًا وأكثر أمانًا من هذه الأداة.

بالإضافة إلى ذلك، كما حددت الشركة الواقعة في كاليفورنيا في أحد تقاريرهاتقنيات الوثائق، يجب تجاوز حد الكشف حتى يتم وضع علامة على حساب iCloud لمشاركة المواد الإباحية المتعلقة بالأطفال. العتبة هي 30 صورة. مع العلم أنه بالإضافة إلى ذلك، بعد الإبلاغ عن النظام، يتم إجراء التحقق من قبل موظفي Apple مباشرة للقضاء على أي خطر من النتائج الإيجابية الكاذبة. وقد عرضت هذه النقطة فيالأسئلة الشائعة التي نشرتها شركة كوبرتينو قبل بضعة أسابيع.

ونتصور أنه تم بالفعل اتخاذ جميع الاحتياطات أثناء تطوير النظام لتجنب احترام سرية المستخدم من ناحية، والحد من النتائج الإيجابية الكاذبة من ناحية أخرى. نأمل أن يكون هذا كافيا.

تذكر أن اكتشاف المحتوى الإباحي للأطفال سيكون فعالاً بعد إصدار نظام التشغيل الرئيسي التالي، iOS 15 وmacOS Monterey، قبل نهاية عام 2021.

تم التحديث في 20 أغسطس 2021

في أمقالة جديدة من اللوحة الأمقالت شركة Apple إنها تستخدم تقنية تحليل إضافية للتحقق من صحة الصورة باعتبارها محتوى إباحيًا حساسًا للأطفال. سيتم هذا التحقق على خوادم Apple، بعد الاكتشاف الأول الذي تم محليًا، على أجهزة المستخدمين، ولكن قبل خطوة التحقق الأخيرة التي يتم تنفيذها بواسطة فرق Apple مباشرةً، يدويًا.

وبالتالي، يمكن لهذا الفحص الثاني إلغاء نتيجة إيجابية كاذبة، مما يؤكد الاكتشاف الذي قام به Asuhariet Ygvar في البداية ويظهر أن الخوارزمية الأساسية لنظام CSAM الخاص بشركة Apple يمكن خداعها من خلال إنشاء نفس المعرف لصورتين متطابقتين.

وهذا ما أثبته اختصاصي الذكاء الاصطناعي براد دواير من شركة Roboflow. الأخيرمُبَرهنكيف تمكن الذكاء الاصطناعي، OpenAI Clip، في حالة دراسته، من ذلكالتمييز بين صورتين تحملان نفس NeuralHash. ومع مثل هذا النظام، سيتم التخلص من العديد من النتائج الإيجابية الكاذبة، الأمر الذي من شأنه أن يحد من عمل فرق الشركة في كاليفورنيا التي تقوم بالفحص الأخير قبل رفع التنبيه.

إقرأ أيضاً:

i-nfo.fr - تطبيق iPhon.fr الرسمي

بواسطة: كيليوبس AG

رئيس تحرير موقع iPhon.fr. بيير مثل إنديانا جونز، يبحث عن خدعة iOS المفقودة. وهو أيضًا مستخدم Mac منذ فترة طويلة، ولا تحمل أجهزة Apple أي أسرار له. جهة الاتصال: بيير[أ]iphon.fr.