أثارت شركة آبل غضب العالم أجمع العام الماضي من خلال تقديم خطتها “CSAM”. كمدافع كبير عن سرية المستخدم وخصوصيته، أدارت علامة Apple التجارية ظهرها لهذه المبادئ لإطلاق نظام لرقمنة الصور على iCloud.
كان الهدف الذي أعلنته شركة Apple هو مكافحة المواد الإباحية المتعلقة بالأطفال ونشر هذه الصور باستخدام أداة Apple Cloud. بعد اللقاءمقاومة قوية من الرأي العام، قامت علامة Apple التجارية "بإيقاف" مشروعها مؤقتًا.
أبل تتراجع
أعلنت شركة Apple اليوم أنها تخلت تمامًا عن مشروع CSAM الخاص بها. حتى أن شركة كوبرتينو تخطط للقيام بالعكس وتسمح لمستخدميها بتشفير الصور على iCloud حتى لا تكون مرئية.
يجب أن تكون هذه الوظيفة إحدى الميزات الجديدة الموجودة فيتحديث iOS 16.2 للايفون. ومن المحتمل أن يتم إصدار الأخير خلال شهر ديسمبر. ولم تحدد أبل موعدًا محددًا بعد. وبالإضافة إلى الصور، توضح آبل أن هذا الخيار الجديد سيسمح للمستخدمين بتشفير البيانات الأخرى مثل الملاحظات أو النسخ الاحتياطية للجهاز.
ومع ذلك، فإن شركة أبل لا تدير ظهرها لحماية الأطفال. وفي بيان أدلى به لوسائل الإعلام السلكية، أكدت علامة أبل التجارية أنها تعمل على تعميق استثماراتها في هذا المجال. اليوم، من الممكن لجهاز iPhone أن يكتشف عندما يتلقى الطفل (أو المستخدم المعين على هذا النحو) أو يرسل صورًا مشحونة جنسيًا.
حماية الأطفال والخصوصية
يتيح لك هذا الحل الموجود في تطبيق "الرسائل" الأصلي من Apple إخطار المستخدم بالمحتوى المستلم أو المرسل. هذه العملية محلية بالكامل ولا أحد يعرف ما الذي يستخدمه الطفل لهاتفه. يتم الحفاظ على خصوصيته، لكن Apple تقوم بتصفية الرسائل المستلمة بطريقة رعاية.
تؤكد Statisa أنه في فرنسا في عام 2018، واجه 23% من الأطفال الذين تتراوح أعمارهم بين 11 و14 عامًا بالفعل صورًا إباحية ضد إرادتهم. ومع ذلك، وفقًا لهذه الدراسة، فإن 50% فقط من الأطفال لم يواجهوا مطلقًا محتوى مسيءًا عند استخدام الأجهزة الرقمية.
i-nfo.fr - تطبيق iPhon.fr الرسمي
بواسطة: كيليوبس AG