تطلق OpenAI مجلس أمان “مستقل” يمكنه إيقاف إصدارات نماذجها


تعمل شركة OpenAI على تحويل لجنة السلامة والأمن الخاصة بها إلى “لجنة إشراف مجلس الإدارة” المستقلة التي تتمتع بسلطة تأخير إطلاق النموذج بسبب مخاوف تتعلق بالسلامة، وفقًا لمنشور مدونة OpenAI. وقد قدمت اللجنة توصية بتشكيل مجلس إدارة مستقل بعد مراجعة حديثة استمرت 90 يومًا “للعمليات والضمانات المتعلقة بالسلامة والأمن” الخاصة بشركة OpenAI.

اللجنة، التي يرأسها زيكو كولتر وتضم آدم دانجيلو، وبول ناكاسوني، ونيكول سيليجمان، “سيتم إطلاعها من قبل قيادة الشركة على تقييمات السلامة لإصدارات النماذج الرئيسية، وستمارس، جنبًا إلى جنب مع مجلس الإدارة بأكمله، الإشراف على إطلاق النماذج، بما في ذلك الحصول على سلطة تأخير الإصدار حتى تتم معالجة المخاوف المتعلقة بالسلامة،” كما تقول OpenAI. وسيتلقى مجلس إدارة OpenAI الكامل أيضًا “إحاطات دورية” حول “مسائل السلامة والأمن”.

أعضاء لجنة السلامة في OpenAI هم أيضًا أعضاء في مجلس إدارة الشركة الأوسع، لذلك من غير الواضح بالضبط مدى استقلالية اللجنة فعليًا أو كيفية هيكلة هذا الاستقلال. (كان الرئيس التنفيذي سام ألتمان عضوًا في اللجنة سابقًا، لكنه لم يعد كذلك.) لقد طلبنا من OpenAI التعليق.

من خلال إنشاء مجلس أمان مستقل، يبدو أن OpenAI تتخذ نهجًا مشابهًا إلى حد ما مثل مجلس مراقبة Meta، الذي يراجع بعض قرارات سياسة محتوى Meta ويمكنه إصدار الأحكام التي يجب على Meta اتباعها. لا يوجد أي من أعضاء مجلس الرقابة عضوًا في مجلس إدارة Meta.

كما ساعدت المراجعة التي أجرتها لجنة السلامة والأمن في OpenAI على “توفير فرص إضافية للتعاون الصناعي وتبادل المعلومات لتعزيز أمن صناعة الذكاء الاصطناعي”. وتقول الشركة أيضًا إنها ستبحث عن “المزيد من الطرق لمشاركة وشرح عمل السلامة لدينا” وعن “المزيد من الفرص للاختبار المستقل لأنظمتنا”.

تحديث، 16 سبتمبر: أضيف أن سام التمان لم يعد عضوا في اللجنة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *