من المؤكد أن هذه القضية لم تكن لتحدث كل هذا الضجيج لو لم تحدث الآن، وسط الجدل الكبير الدائر حول أدوات CSAM التي ترغب شركة آبل في تنفيذها على أجهزتها من أجل مسح صور iCloud لمستخدميها، مع الهدف الوحيد هو مكافحة استغلال الأطفال في المواد الإباحية والاتجار بالأطفال.
في حين أن هذا الإجراء يجب أن يواجهحشد من المدافعين عن الحريات الفردية، لعدم رغبتهم في التجسس على حساب iCloud الخاص بهم، حتى لو كان ذلك لحماية الأطفال، فإن طبيبًا من منطقة خليج سان فرانسيسكو يقدم مع ذلك مثالًا رئيسيًا لشركة Apple على مزايا أدواتها. دون حتى أن تستخدمأدوات CSAMألقت السلطات الفيدرالية الأمريكية القبض على هذا الطبيب الذي كان بحوزته صور إباحية للأطفال.
تم العثور على هذه الصور على حساب iCloud الخاص به. في المجمل، جمع المحققون أكثر من 2000 صورة ومقطع فيديو لاستغلال الأطفال جنسيًا على حساب هذا الطبيب البالغ من العمر 58 عامًا. وهو متخصص في علاج الأورام، وكان منتسبًا إلى العديد من المؤسسات الطبية في منطقة الخليج، بالإضافة إلى أنه أستاذ مشارك في كلية الطب بجامعة كاليفورنيا في سان فرانسيسكو.
دليل على كيفية عمل CSAM؟
أجرت السلطات الفيدرالية هذا التحقيق بدون أدوات CSAM التي تستعد شركة Apple لإطلاقها. لقد تمكنوا من الوصول إلى حساب iCloud الخاص به بوسائل أخرى، وبالتالي وضعوا أيديهم على هذا الجبل من الأدلة.
من جانبها، تخطط شركة أبل لإطلاق أداة تقارن الصور المخزنة في حساباتنا على iCloud مع تلك الموجودة في قاعدة بيانات الأطفال المستغلين أو المفقودين. وبشكل أكثر دقة، تقوم Apple بمقارنة تجزئات الصورتين من أجل العثور على التطابقات. فهو لا يقوم بأي حال من الأحوال بمسح الصور الموجودة على حساباتنا، ولا يعرف ما هي، فقط أنها مختلفة عن الصور الموجودة في قاعدة البيانات. من أجل فهم أدوات CSAM بشكل أفضل، نشرت Apple الأسئلة الشائعة منذ بضعة أيام،يمكنك العثور عليه هنا.
i-nfo.fr - تطبيق iPhon.fr الرسمي
بواسطة: كيليوبس AG