وبعد مفاوضات مطولة، توصل أعضاء البرلمان الأوروبي أمس إلى اتفاق مع المجلس بشأن موضوع الذكاء الاصطناعي. واتفقوا معًا على التدابير الواجب اتخاذها من أجل تنظيمها على أفضل وجه ممكن.
ل'الاتحاد الأوروبيكما أنها أول مؤسسة في العالم تقترح لوائح في هذا المجال، كما ذكرناتييري بريتونفي منشوره الأخير على مواقع التواصل الاجتماعي [X].
اتفاق!#AIAct pic.twitter.com/UwNoqmEHt5
– تييري بريتون (@ThierryBreton)8 ديسمبر 2023
صحيح أن المؤسسة سبقت موضوعها ولو لمرة واحدة. لكن المبادرة ربما لا تكون من نصيبهم. في الماضي، عندما رأوا أن الأنظمة التي كانوا يطورونها كانت لديها القدرة على تقويض الأنظمة الديمقراطية القائمة، بعضهاوقد دعا اللاعبون الرئيسيون العاملون في قطاع الذكاء الاصطناعي إلى تنظيم الاتحاد الأوروبي. هذا ما تم الإبلاغ عنهأوريلي جانويضيف الباحث الفرنسي المشهور عالميًا في هذا المجالوكان مارك زوكربيرج أيضًا جزءًا من هذا الطلبأنظمة.
"يضع قانون الذكاء الاصطناعي قواعد لنماذج الذكاء الاصطناعي الكبيرة والقوية، مما يضمن أنها لا تشكل مخاطر نظامية على الاتحاد ويوفر ضمانات قوية لمواطنينا وديمقراطياتنا ضد أي إساءة استخدام للتكنولوجيا من قبل السلطات العامة. »
إن أنظمة الذكاء الاصطناعي التي سمعنا عنها مرارًا وتكرارًا منذ أكثر من عام بقليل هي أيضًا كذلكآيايقولتوليدي (دردشة GPT، Bard، إلخ.). إنهم فقط يكررون ما علمهم إياه البشر. المخاوف بشأن الذكاء الاصطناعي الذي يمكن أن يعرض النموذج الديمقراطي القائم للخطر هي من النوع "عام».وقد أوضحنا ذلك في مقال سابق حول هذا الموضوع.
وضعت اللوائح
فيما يلي قائمة بتطبيقات الذكاء الاصطناعي التي يريد الاتحاد الأوروبي حظرها:
- أنظمة التصنيف البيومترية التي تستخدم خصائص حساسة (مثل المعتقدات السياسية والدينية والفلسفية والتوجه الجنسي والعرق)؛
- الاسترجاع غير المستهدف لصور الوجه من الإنترنت أو لقطات المراقبة بالفيديو لإنشاء قواعد بيانات للتعرف على الوجه؛
- الاعتراف بالعواطف في مكان العمل وفي المؤسسات التعليمية؛
- التصنيف الاجتماعي على أساس السلوك الاجتماعي أو الخصائص الشخصية؛
- أنظمة الذكاء الاصطناعي التي تتلاعب بالسلوك البشري للتحايل على إرادته الحرة؛
- يُستخدم الذكاء الاصطناعي لاستغلال نقاط ضعف الأشخاص (بسبب أعمارهم أو إعاقتهم أو وضعهم الاجتماعي أو الاقتصادي).
بعض التدابير المذكورة أعلاهقد تكون خاضعة للإعفاء في سياق بعض التحقيقات.
تعتبر بعض أنظمة الذكاء الاصطناعي من المحتمل أن تكون "مخاطر عالية" بسبب "وأضرارها المحتملة الكبيرة على الصحة والسلامة والحقوق الأساسية والبيئة والديمقراطية وسيادة القانون» سيتعين عليك أيضًا الخضوع لالتزامات صارمة للغاية.
أنظر أيضا:
i-nfo.fr - تطبيق iPhon.fr الرسمي
بواسطة: كيليوبس AG