حماية الطفل وCSAM: شركة Apple توقف المشروع

© أونسبلاش / كوينتون كوتزي

في بيان صحفي تم إرساله إلى AppleInsider، أصدرت شركة Apple إعلانًا مهمًا. وقد أعلنت شركة كاليفورنيا في الواقعإيقاف نشر أدوات حماية الطفل مؤقتًاأعلن قبل بضعة أسابيع.

كما هو مفصل هناخططت الشركة الأمريكية العملاقة لإطلاق العديد من الميزات الجديدة مع نظام التشغيل iOS 15 لحماية الأطفال من المحتوى الجنسي، ولكن أيضًا للتنديد بأي حساب على iCloud يشارك محتوى إباحيًا للأطفال. وكانت هذه النقطة بشكل خاص هي التي جعلت الناس يرتعدون. لأنه حتى لو كان نظام التحليل الكامن وراء هذا الكشف يبدو حتى ذلك الحين على الورق آمنًا تمامًا من حيث احترام السرية، إلا أنه كان مصدر خوف كبير للكثيرين. وكان التوتر واضحا، سواء بين المحللين أومتخصصون في أمن تكنولوجيا المعلومات، وذلك بالنسبة للمدافعين عن الحياة الخاصة،لا إدوارد سنودن. هي حتىغزت صفوف شركة كاليفورنيا مباشرة.

لكنهم سيكونون قادرين على أخذ قسط من الراحة، كما فعلت شركة أبلأوقف المشروع مؤقتًا حتى إشعار آخر. توضح الشركة لـ AppleInsider أنها تريد تخصيص بعض الوقت لتحليل الموقف والأدوات، بما في ذلك CSAM (تحليل صور iCloud) الذي تمت مناقشته كثيرًا.

ما رأيك في هذا القرار؟

إقرأ أيضاً:

i-nfo.fr - تطبيق iPhon.fr الرسمي

بواسطة: كيليوبس AG

رئيس تحرير موقع iPhon.fr. بيير مثل إنديانا جونز، يبحث عن خدعة iOS المفقودة. وهو أيضًا مستخدم Mac منذ فترة طويلة، ولا تحمل أجهزة Apple أي أسرار له. جهة الاتصال: بيير[أ]iphon.fr.