اخر الأخبار في سوق الكريبتو

مطالب بحماية المبلغين عن المخالفات من داخل OpenAI و DeepMind

في 4 يونيو، دعا أفراد لهم أدوار حالية وسابقة في OpenAI وGoogle DeepMind إلى حماية النقاد والمبلغين عن المخالفات في قطاع الذكاء الاصطناعي.

دعوة لحماية النقاد والمبلغين عن المخالفات

حث مؤلفو رسالة مفتوحة شركات الذكاء الاصطناعي على عدم الدخول في اتفاقيات تمنع النقد أو الانتقام من النقاد من خلال عرقلة الفوائد الاقتصادية. كما دعوا الشركات إلى خلق ثقافة “النقد المفتوح” مع حماية الأسرار التجارية وحقوق الملكية الفكرية.

إنشاء حماية للموظفين

طلب المؤلفون من الشركات إنشاء حماية للموظفين الحاليين والسابقين في الحالات التي فشلت فيها عمليات الإبلاغ عن المخاطر الحالية. وكتبوا: “حماية المبلغين العاديين غير كافية لأنها تركز على النشاط غير القانوني، بينما العديد من المخاطر التي نشعر بالقلق منها لم يتم تنظيمها بعد.”

إجراءات للإبلاغ عن المخاطر

وأخيراً، قال المؤلفون إنه يجب على شركات الذكاء الاصطناعي إنشاء إجراءات تمكن الموظفين من إثارة المخاوف المتعلقة بالمخاطر بشكل مجهول. يجب أن تسمح هذه الإجراءات للأفراد بإثارة مخاوفهم أمام مجالس إدارة الشركات والجهات التنظيمية والمنظمات الخارجية على حد سواء.

مخاوف شخصية

وصف ثلاثة عشر مؤلفًا للرسالة أنفسهم بأنهم موظفون حاليون وسابقون في “شركات الذكاء الاصطناعي المتقدمة”. تتضمن المجموعة 11 عضوًا حاليًا وسابقًا في OpenAI، بالإضافة إلى عضو سابق في Google DeepMind وعضو حالي في DeepMind، كان يعمل سابقًا في Anthropic.

أعربوا عن مخاوف شخصية، قائلين: “بعضنا يخشى بشكل معقول أشكالًا مختلفة من الانتقام، نظرًا لتاريخ مثل هذه الحالات في الصناعة.”

المخاطر المتعلقة بالذكاء الاصطناعي

سلط المؤلفون الضوء على مخاطر متنوعة للذكاء الاصطناعي، مثل عدم المساواة، والتلاعب، والمعلومات المضللة، وفقدان السيطرة على الذكاء الاصطناعي المستقل، واحتمالية انقراض البشر.

قالوا إن شركات الذكاء الاصطناعي، إلى جانب الحكومات والخبراء، قد اعترفت بالمخاطر. لكن الشركات لديها “حوافز مالية قوية” لتجنب الرقابة وقليل من الالتزام بمشاركة المعلومات الخاصة بقدرات أنظمتها بشكل طوعي.

إيمانهم بفوائد الذكاء الاصطناعي

أكد المؤلفون إيمانهم بفوائد الذكاء الاصطناعي على الرغم من المخاطر.

رسالة سابقة في 2023

تأتي هذه الدعوة بعد رسالة مفتوحة في أبريل 2023 بعنوان “إيقاف تجارب الذكاء الاصطناعي العملاقة”، التي سلطت الضوء على المخاطر المتعلقة بالذكاء الاصطناعي. اكتسبت الرسالة السابقة توقيعات من قادة الصناعة مثل الرئيس التنفيذي لشركة تسلا ورئيس مجلس إدارة X إيلون ماسك والمؤسس المشارك لشركة أبل ستيف وزنياك.

حثت رسالة 2023 الشركات على إيقاف تجارب الذكاء الاصطناعي لمدة ستة أشهر حتى يتمكن صانعو السياسات من إنشاء أطر قانونية وسلامة وغيرها.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى