يقول موظفو OpenAI السابقون إن حماية المبلغين عن المخالفات المتعلقة بسلامة الذكاء الاصطناعي ليست كافية


حذر العديد من موظفي OpenAI السابقين في رسالة مفتوحة من أن شركات الذكاء الاصطناعي المتقدمة مثل OpenAI تخنق النقد والرقابة، خاصة مع تزايد المخاوف بشأن سلامة الذكاء الاصطناعي في الأشهر القليلة الماضية.

تقول الرسالة المفتوحة، التي وقعها 13 موظفًا سابقًا في OpenAI (ستة منهم اختاروا عدم الكشف عن هويتهم) وأيدها “عراب الذكاء الاصطناعي” جيفري هينتون، الذي كان يعمل سابقًا في Google، إنه في غياب أي رقابة حكومية فعالة، يجب على شركات الذكاء الاصطناعي الالتزام بما يلي: مبادئ النقد المفتوح. وتشمل هذه المبادئ تجنب إنشاء وتنفيذ شروط عدم الانتقاص، وتسهيل عملية مجهولة “يمكن التحقق منها” للإبلاغ عن المشكلات، والسماح للموظفين الحاليين والسابقين بإثارة المخاوف للجمهور، وعدم الانتقام من المبلغين عن المخالفات.

ويزعم الموقعون على الرسالة أن الحماية الحالية للمبلغين عن المخالفات “غير كافية” لأنها تركز على النشاط غير القانوني بدلاً من المخاوف التي، كما يقولون، غير منظمة في معظمها. تنص وزارة العمل على أن العمال الذين يبلغون عن انتهاكات الأجور والتمييز والسلامة والاحتيال وحجب الإجازات محميون بموجب قوانين حماية المبلغين عن المخالفات، مما يعني أنه لا يمكن لأصحاب العمل فصل المبلغين عن المخالفات أو تسريحهم أو تقليل ساعات عملهم أو خفض رتبتهم. “البعض منا يخشى بشكل معقول أشكالا مختلفة من الانتقام، نظرا لتاريخ مثل هذه الحالات في جميع أنحاء الصناعة. وجاء في الرسالة: “لسنا أول من واجه هذه القضايا أو تحدث عنها”.

في الآونة الأخيرة، استقال العديد من الباحثين في شركة OpenAI بعد أن قامت الشركة بحل فريق “Superalignment”، الذي ركز على معالجة مخاطر الذكاء الاصطناعي الطويلة الأجل، ورحيل المؤسس المشارك إيليا سوتسكيفر، الذي كان يناصر السلامة في الشركة. قال جان ليك، أحد الباحثين السابقين، إن “ثقافة وعمليات السلامة تراجعت أمام المنتجات اللامعة” في شركة OpenAI.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *