يحذر موظفو OpenAI من ثقافة المخاطرة والانتقام
أصدرت مجموعة من الموظفين الحاليين والسابقين في شركة OpenAI خطابًا عامًا يحذرون فيه من أن الشركة ومنافسيها يبنون ذكاءً اصطناعيًا بمخاطر لا مبرر لها، دون إشراف كاف، وفي الوقت نفسه يقومون بإسكات الموظفين الذين قد يشهدون أنشطة غير مسؤولة.
وجاء في الرسالة المنشورة على موقع righttowarn.ai: “تتراوح هذه المخاطر من زيادة ترسيخ عدم المساواة القائمة، إلى التلاعب والتضليل، إلى فقدان السيطرة على أنظمة الذكاء الاصطناعي المستقلة، مما قد يؤدي إلى انقراض الإنسان”. “طالما لا توجد رقابة حكومية فعالة على هذه الشركات، فإن الموظفين الحاليين والسابقين هم من بين الأشخاص القلائل الذين يمكنهم مساءلتهم”.
لا تدعو الرسالة OpenAI فحسب، بل جميع شركات الذكاء الاصطناعي إلى الالتزام بعدم معاقبة الموظفين الذين يتحدثون علنًا عن أنشطتهم. كما يدعو الشركات إلى إنشاء طرق “يمكن التحقق منها” للعاملين لتقديم تعليقات مجهولة المصدر حول أنشطتهم. وجاء في الرسالة: “إن الحماية العادية للمبلغين عن المخالفات ليست كافية لأنها تركز على النشاط غير القانوني، في حين أن العديد من المخاطر التي نشعر بالقلق إزاءها لم يتم تنظيمها بعد”. “البعض منا يخشى بشكل معقول أشكالا مختلفة من الانتقام، نظرا لتاريخ مثل هذه الحالات في جميع أنحاء الصناعة.”
تعرضت OpenAI لانتقادات الشهر الماضي بعد أن كشفت مقالة Vox أن الشركة هددت باستعادة حقوق الموظفين إذا لم يوقعوا على اتفاقيات عدم الاستخفاف التي تمنعهم من انتقاد الشركة أو حتى الإشارة إلى وجود مثل هذه الاتفاقية. الرئيس التنفيذي لشركة OpenAI، سام التمان، قال على X مؤخرًا أنه لم يكن على علم بمثل هذه الترتيبات وأن الشركة لم تسترد مطلقًا حقوق ملكية أي شخص. وقال ألتمان أيضًا إنه سيتم إزالة هذا البند، مما سيسمح للموظفين بالتحدث علنًا. لم يستجب OpenAI لطلب التعليق حتى وقت النشر.
قامت OpenAI أيضًا مؤخرًا بتغيير نهجها في إدارة السلامة. في الشهر الماضي، تم حل مجموعة بحث OpenAI المسؤولة عن تقييم ومواجهة المخاطر طويلة المدى التي تفرضها نماذج الذكاء الاصطناعي الأكثر قوة للشركة بشكل فعال بعد مغادرة العديد من الشخصيات البارزة وتم استيعاب الأعضاء المتبقين في الفريق في مجموعات أخرى. وبعد بضعة أسابيع، أعلنت الشركة أنها أنشأت لجنة للسلامة والأمن بقيادة ألتمان وأعضاء آخرين في مجلس الإدارة.
في تشرين الثاني (نوفمبر) الماضي، تم طرد ألتمان من قبل مجلس إدارة OpenAI بسبب فشله في الكشف عن المعلومات وتضليلهم عمدًا. وبعد صراع علني للغاية، عاد ألتمان إلى الشركة وتم طرد معظم أعضاء مجلس الإدارة.
يشمل الموقعون على الرسائل الأشخاص الذين عملوا في مجال السلامة والحوكمة في OpenAI، والموظفين الحاليين الذين وقعوا بشكل مجهول، والباحثين الذين يعملون حاليًا في شركات الذكاء الاصطناعي المنافسة. وقد تم اعتمادها أيضًا من قبل العديد من الباحثين البارزين في مجال الذكاء الاصطناعي، بما في ذلك جيفري هينتون ويوشوا بينجيو، اللذين فازا بجائزة تورينج لأبحاث الذكاء الاصطناعي الرائدة، وستيوارت راسل، الخبير الرائد في سلامة الذكاء الاصطناعي.
ومن بين الموظفين السابقين الذين وقعوا على الرسالة ويليام سوندرز، وكارول وينرايت، ودانييل زيجلر، وجميعهم عملوا في مجال سلامة الذكاء الاصطناعي في OpenAI.
يقول جاكوب هيلتون، الباحث الذي عمل سابقًا في التعلم المعزز في شركة OpenAI، والذي ترك الشركة منذ أكثر من عام بحثًا عن فرصة بحثية جديدة: “إن عامة الناس يقللون حاليًا من تقدير وتيرة تطور هذه التكنولوجيا”. تقول هيلتون إنه على الرغم من التزام شركات مثل OpenAI ببناء الذكاء الاصطناعي بشكل آمن، إلا أن هناك القليل من الرقابة للتأكد من أن هذا هو الحال. ويقول: “إن الحماية التي نطلبها تهدف إلى تطبيقها على جميع شركات الذكاء الاصطناعي الحدودية، وليس فقط OpenAI”.
يقول دانييل كوكوتايلو، الباحث الذي عمل سابقًا في مجال حوكمة الذكاء الاصطناعي في OpenAI: “لقد غادرت لأنني فقدت الثقة في أن شركة OpenAI ستتصرف بمسؤولية”. ويضيف: “هناك أشياء حدثت أعتقد أنه كان ينبغي الكشف عنها للعامة”، رافضا تقديم تفاصيل.
يقول كوكوتايلو إن اقتراح الرسالة سيوفر قدرًا أكبر من الشفافية، ويعتقد أن هناك فرصة جيدة لأن تقوم شركة OpenAI وغيرها بإصلاح سياساتها نظرًا لرد الفعل السلبي على أخبار اتفاقيات عدم الاستخفاف. ويقول أيضًا إن الذكاء الاصطناعي يتقدم بسرعة مثيرة للقلق. ويقول: “ستزداد المخاطر كثيرًا جدًا في السنوات القليلة المقبلة، على الأقل هذا ما أعتقده”.