جوجل تقسم هيئة مراقبة أخلاقيات الذكاء الاصطناعي الرئيسية


عندما كان الرئيس التنفيذي لشركة جوجل أرسل ساندر بيتشاي إلى موظفيه عبر البريد الإلكتروني أولويات الشركة لعام 2024 هذا الشهر، وكان تطوير الذكاء الاصطناعي بشكل مسؤول على رأس القائمة. ويتساءل بعض الموظفين الآن عما إذا كانت شركة Google قادرة على تحقيق هذا الهدف. لقد فقد الفريق الصغير الذي كان بمثابة هيئة مراقبة أخلاقيات الذكاء الاصطناعي الداخلية الرئيسية قائده وتتم إعادة هيكلته، وفقًا لأربعة أشخاص مطلعين على التغييرات. وقال متحدث باسم جوجل إن عملها سيستمر بشكل أقوى في المستقبل، لكنه رفض تقديم التفاصيل.

يقع فريق الابتكار المسؤول في Google، المعروف باسم RESIN، داخل مكتب الامتثال والنزاهة، في قسم الشؤون العالمية بالشركة. وقد استعرضت المشروعات الداخلية للتأكد من توافقها مع مبادئ الذكاء الاصطناعي الخاصة بجوجل والتي تحدد قواعد تطوير التكنولوجيا واستخدامها، وهو دور حاسم في سباق الشركة للتنافس في مجال الذكاء الاصطناعي التوليدي. أجرت RESIN أكثر من 500 مراجعة العام الماضي، بما في ذلك مراجعة Bard chatbot، وفقًا لتقرير سنوي عن مبادئ الذكاء الاصطناعي نشرته جوجل هذا الشهر.

بدا دور RESIN غير مؤكد منذ أن ترك زعيمها ومؤسسها جين جيناي، مدير الابتكار المسؤول، هذا الدور فجأة هذا الشهر، كما تقول المصادر، التي تحدثت بشرط عدم الكشف عن هويتها لمناقشة التغييرات في الموظفين. يُدرجها ملف Gennai الشخصي على LinkedIn كمستشارة لأخلاقيات الذكاء الاصطناعي والامتثال في Google اعتبارًا من هذا الشهر، وهو ما تقول المصادر أنه يشير إلى أنها ستغادر قريبًا بناءً على كيفية حدوث عمليات المغادرة السابقة من الشركة.

وقامت جوجل بتقسيم فريق جيناي المكون من حوالي 30 شخصًا إلى قسمين، وفقًا للمصادر. يقول المتحدث باسم الشركة، بريان غابرييل، إن 10% من موظفي RESIN سيبقون في أماكنهم بينما تم نقل 90% من الفريق إلى قسم الثقة والأمان، الذي يحارب إساءة استخدام خدمات Google ويعمل أيضًا في قسم الشؤون العالمية. وتقول المصادر إنه لا يبدو أنه تم تسريح أي شخص. لا يمكن معرفة الأساس المنطقي للتغييرات وكيفية تقسيم المسؤوليات. وتقول بعض المصادر إنه لم يتم إخبارهم بكيفية التعامل مع مراجعات مبادئ الذكاء الاصطناعي في المستقبل.

ورفض غابرييل الإفصاح عن كيفية التعامل مع عمل RESIN في مراجعة مشاريع الذكاء الاصطناعي في المستقبل، لكنه وصف التغيير بأنه إشارة إلى التزام Google بتطوير الذكاء الاصطناعي المسؤول. ويقول إن هذه الخطوة “جعلت فريق الذكاء الاصطناعي المسؤول هذا في مركز جهودنا الراسخة في مجال الثقة والسلامة، والتي تم تضمينها في مراجعات منتجاتنا وخططنا”. “وسوف يساعدنا ذلك على تعزيز وتوسيع نطاق عملنا الابتكاري المسؤول في جميع أنحاء الشركة.”


حصلت على نصيحة؟

هل أنت موظف حالي أو سابق في Google؟ نود أن نسمع منك. باستخدام هاتف أو جهاز كمبيوتر غير خاص بالعمل، اتصل بـ Paresh Dave على paresh_dave@wired.com أو على Signal/WhatsApp/Telegram على 1-415-565-1302.

ومن المعروف أن جوجل تقوم بتعديل صفوفها بشكل متكرر، لكن RESIN لم يمسها أحد إلى حد كبير منذ تأسيس المجموعة. على الرغم من أن الفرق الأخرى، ومئات الأشخاص الإضافيين، يعملون على الإشراف على الذكاء الاصطناعي في Google، إلا أن RESIN كان الأبرز، مع اختصاص يغطي جميع خدمات Google الأساسية.

بالإضافة إلى رحيل زعيمها، غيناي، شهدت RESIN أيضًا مغادرة أحد أعضائها الأكثر تأثيرًا، سارة تانغدال، المتخصصة في أخلاقيات مبادئ الذكاء الاصطناعي، هذا الشهر. وهي الآن مسؤولة عن مدير منتجات الذكاء الاصطناعي في Salesforce، وفقًا لملفها الشخصي على LinkedIn. ورفض تانغدال التعليق ولم يستجب جيناي لمكالمات التعليق.

انتفاضة منظمة العفو الدولية

أنشأت Google فريق الابتكار المسؤول الخاص بها في عام 2018 بعد فترة وجيزة من قيام خبراء الذكاء الاصطناعي وغيرهم في الشركة بالاحتجاج علنًا على عقد البنتاغون المسمى Project Maven الذي استخدم خوارزميات Google لتحليل صور مراقبة الطائرات بدون طيار. أصبح RESIN المشرف الأساسي على مجموعة مبادئ الذكاء الاصطناعي التي تم تقديمها بعد الاحتجاجات، والتي تقول إن جوجل ستستخدم الذكاء الاصطناعي لإفادة الناس، وليس للأسلحة أو تقويض حقوق الإنسان أبدًا. ساعد جيناي في تأليف المبادئ.

يمكن للفرق من جميع أنحاء Google إرسال المشاريع للمراجعة من قبل RESIN، والتي تقدم تعليقات وفي بعض الأحيان تحظر الأفكار التي يُنظر إليها على أنها تنتهك مبادئ الذكاء الاصطناعي. أوقفت المجموعة إصدار مولدات صور الذكاء الاصطناعي وخوارزميات تركيب الصوت التي يمكن استخدامها لإنشاء مقاطع مزيفة عميقة.

إن البحث عن إرشادات حول مبادئ الذكاء الاصطناعي ليس إلزاميًا بالنسبة لمعظم الفرق، على عكس مراجعات مخاطر الخصوصية، التي يجب أن يخضع لها كل مشروع. لكن جيناي قال إن المراجعات المبكرة لأنظمة الذكاء الاصطناعي تؤتي ثمارها من خلال منع الانتهاكات الأخلاقية المكلفة. وقالت خلال مؤتمر لشركة جوجل في عام 2022: “إذا تم تنفيذ الذكاء الاصطناعي المسؤول بشكل صحيح، فإنه يجعل المنتجات أفضل من خلال الكشف عن الضرر الذي يمكن أن يسببه التحيز غير العادل والعمل على تقليله، وتحسين الشفافية وزيادة الأمان”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *