قام الموظفون السابقون في OpenAI وGoogle Deep Mind (قسم الذكاء الاصطناعي في Alphabet)، بالإضافة إلى الموظفين الذين ما زالوا يعملون، بالتوقيع ونشر رسالة. والأخير يهدف إلىإثارة المخاوف بشأن الذكاء الاصطناعي مع عامة الناس، ولطلب ضمانات وإجراءات من الحكومات وكذلك من الشركات الكبيرة التي تقوم بتطويرها.
تم توقيع الرسالة من قبل 13 شخصًا، من بينهم 5 لا يزالون في مناصبهم. أما الذين ما زالوا يعملون في OpenAI، فهناك أربعة منهم، ولم يذكر أحد اسمائهم. من ناحية أخرى، في Google Deep Mind، لم يخف الموقع الوحيد الذي لا يزال في منصبه، بل هو على وشكنيل ندى.
محتوى الرسالة
ومن أجل إيصال مشاعرهم ومطالبهم، ذهب كاتبو الرسالة إلى حد شراء اسم نطاق، بحيث يمكن نشره على صفحة ويب مستقلة، دون الانحرافات الخارجية للشبكات الاجتماعية. ومن المحتمل أيضًا أن تكون هذه طريقة لتقديم دعم مختلف، والذي سيتم تذكره. المجال المعني يسمىrighttowarn.ai، وهو ما يعني الحق في التحذير باللغة الفرنسية.
يقدم الموظفون الرسالة أولاً مع عرض تقديمي موجز عن هويتهم، ثم ينقلون حقيقة أنهم يدركون، أكثر من البشر العاديين، المشكلات والمخاطر الحقيقية للذكاء الاصطناعي:
وتتراوح هذه المخاطر من تفاقم أوجه عدم المساواة القائمة إلى التلاعب والتضليل إلى فقدان السيطرة على أنظمة الذكاء الاصطناعي المستقلة.يمكن أن تؤدي إلى انقراض البشرية.لقد أدركت شركات الذكاء الاصطناعي نفسها هذه المخاطر.
وتستشهد الرسالة بالمصادر لضمان صحة الوقائع المطروحة، ثم يعبر عنها الموقعونرغبتهم في التخفيف من المخاطر المذكورة من خلال تدابير ملموسة.وللقيام بذلك، فإنهم يعتمدون على مختلف الهيئات التنظيمية وصناع القرار في جميع أنحاء العالم.
مشكلة البحث في الذكاء الاصطناعي
يمثل التقدم التكنولوجي في مجال الذكاء الاصطناعي مشكلة كبيرة، خاصة بسبب القدرة التنافسية لهذا المجال. تعمل الشركات الأكثر تقدمًا في هذا المجال في بيئة تنافسية شديدة. ولذلك ليس لديهملا مصلحة في الكشف عن النتائج التي توصلوا إليهاأو أن يتم مراقبتها من قبل الجهات التنظيمية في جميع أنحاء العالم. تنص الرسالة على ما يلي:
تمتلك شركات الذكاء الاصطناعي معلومات مهمة غير عامة حول قدرات أنظمتها والقيود المفروضة عليها، ومدى كفاية تدابير الحماية التي تتخذها، ومستويات المخاطر الناجمة عن أنواع مختلفة من الضرر. ومع ذلك، ليس لديهم حاليًا سوى التزامات ضعيفة بمشاركة بعض هذه المعلومات مع الحكومات، وليس مع المجتمع المدني. ولا نعتقد أنه يمكن الاعتماد عليهم لمشاركتها طوعا.
ويمكن توضيح النقطة الأخيرة التي أثارتها الرسالة بسهولة من خلال شركة OpenAI، التي دعت في أيامها الأولى إلى نموذج غير ربحي، يقوم على تبادل اكتشافات الذكاء الاصطناعي، من أجل خير البشرية. الشركةمنذ ذلك الحين غيرت وجهة نظرها بالكاملولذلك يدعو الموقعون الجهات التنظيمية إلى التحرك.
وعلى وجه الخصوص، يريدون دفع قادة الذكاء الاصطناعي إلى:لديه الالتزام باحترام حرية التعبيروتسهيل عملية مجهولة المصدر لمشاركة المخاوف المتعلقة بالمخاطر وتعزيز الشفافية. ويؤكدون على أهميةحماية المبلغين عن المخالفات وتمكين التواصل المفتوح بشأن مخاطر الذكاء الاصطناعي، دون انتقاممع الحفاظ على الأسرار التجارية والملكية الفكرية.
تذكرنا هذه الحالة بطلب مارك زوكربيرج للتنظيم المقدم إلى الاتحاد الأوروبي في مايو 2020. وكان رئيس ميتا يخشى بالفعل من قدرات الذكاء الاصطناعي قبل أربع سنوات. ولذلك طلب من بروكسل أن تكون نموذجاً من خلال وضع لوائح واضحة حول هذا الموضوع.
وقد تم أخذ طلب رئيس ميتا بعين الاعتبار على محمل الجد، حيث كان الاتحاد الأوروبي هو أول جهة تنظيمية في العالملاقتراح إطار عمل في ديسمبر 2023، والتي تنطوي على وجه الخصوص على الحظرالنتيجة الاجتماعية الصينيةفي القارة القديمة.
i-nfo.fr - تطبيق iPhon.fr الرسمي
بواسطة: كيليوبس AG