موظفى الذكاء الاصطناعى يطالبون بحماية أقوى للمبلغين عن المخالفات




وقعت مجموعة من الموظفين الحاليين والسابقين من شركات الذكاء الاصطناعي الرائدة مثل OpenAI وGoogle DeepMind وAnthropic رسالة مفتوحة تطالب بمزيد من الشفافية والحماية من الانتقام لأولئك الذين يتحدثون علنًا عن المخاوف المحتملة للذكاء الاصطناعي.




ووفقا لما ذكره موقع “engadget”، جاء في الرسالة: “طالما لا توجد رقابة حكومية فعالة على هذه الشركات، فإن الموظفين الحاليين والسابقين هم من بين الأشخاص القلائل الذين يمكنهم مساءلتهم أمام الجمهور”، مضيفة “ومع ذلك، فإن اتفاقيات السرية الواسعة تمنعنا من التعبير عن مخاوفنا، باستثناء الشركات نفسها التي قد تفشل في معالجة هذه القضايا”.




تأتي الرسالة بعد أسبوعين فقط من كشف تحقيق أجرته شركة Vox عن أن OpenAI حاولت إسكات الموظفين المغادرين مؤخرًا من خلال إجبارهم على الاختيار بين التوقيع على اتفاقية صارمة، أو المخاطرة بفقدان أسهمهم المكتسبة في الشركة.




قال الرئيس التنفيذي لشركة OpenAI، سام ألتمان، “إنه كان محرجًا حقًا من هذا البند وادعى أنه تمت إزالته من وثائق الخروج الأخيرة، على الرغم من أنه من غير الواضح ما إذا كان لا يزال ساريًا بالنسبة لبعض الموظفين.”




كما أنه من بين الموقعين الثلاثة عشر، كان هناك موظفون سابقون في OpenAI، وهم جاكوب هينتون، وويليام سوندرز، ودانييل كوكوتاجلو.




وقال كوكوتايلو إنه استقال من الشركة بعد أن فقد الثقة في أنها ستبنى بشكل مسؤول الذكاء الاصطناعي العام، وهو مصطلح يشير إلى أنظمة الذكاء الاصطناعي التي تكون ذكية أو أكثر ذكاءً من البشر.




تعرب الرسالة، التي أيدها خبراء الذكاء الاصطناعي البارزون جيفري هينتون ويوشوا بنجيو وستيوارت راسل، عن مخاوف بالغة بشأن الافتقار إلى الرقابة الحكومية الفعالة على الذكاء الاصطناعي والحوافز المالية التي تدفع عمالقة التكنولوجيا للاستثمار في التكنولوجيا.




ويحذر الباحثون من أن السعي دون رادع لأنظمة الذكاء الاصطناعي القوية يمكن أن يؤدي إلى انتشار المعلومات الخاطئة، وتفاقم عدم المساواة، وحتى فقدان السيطرة البشرية على الأنظمة المستقلة، مما قد يؤدي إلى انقراض الإنسان.




كتب كوكوتايلو على موقع X: “هناك الكثير مما لا نفهمه حول كيفية عمل هذه الأنظمة وما إذا كانت ستظل متوافقة مع المصالح البشرية مع ازدياد ذكاءها وربما تجاوز مستوى الذكاء البشري في جميع المجالات”.




فيما قال متحدث باسم OpenAI: “نحن فخورون بسجلنا الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر قدرة والأكثر أمانًا ونؤمن بنهجنا العلمي لمعالجة المخاطر، ونحن نتفق على أن النقاش الدقيق أمر بالغ الأهمية نظرا لأهمية هذه التكنولوجيا وسنواصل التعامل مع الحكومات والمجتمع المدني والمجتمعات الأخرى في جميع أنحاء العالم”.




ويدعو الموقعون شركات الذكاء الاصطناعي إلى الالتزام بأربعة مبادئ رئيسية:




• الامتناع عن الانتقام من الموظفين الذين يعبرون عن مخاوف تتعلق بالسلامة.




• دعم نظام مجهول للمبلغين عن المخالفات لتنبيه الجمهور والجهات التنظيمية حول المخاطر.




• السماح بثقافة النقد الصريح.




• وتجنب اتفاقيات عدم الإفصاح التي تقيد الموظفين من التحدث علناً.




تأتي الرسالة وسط تدقيق متزايد لممارسات OpenAI، بما في ذلك حل فريق السلامة “superalignment” الخاص بها ورحيل شخصيات رئيسية مثل المؤسس المشارك Ilya Sutskever وJan Leike، اللذين انتقدا إعطاء الشركة الأولوية “للمنتجات اللامعة” على السلامة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *