تعاني OpenAI من مخاوف تتعلق بالسلامة
OpenAI هي شركة رائدة في السباق لتطوير الذكاء الاصطناعي بذكاء الإنسان. ومع ذلك، يستمر الموظفون في الظهور في الصحافة وفي البث الصوتي للتعبير عن مخاوفهم الجسيمة بشأن السلامة في مختبر الأبحاث غير الربحي الذي تبلغ تكلفته 80 مليار دولار. الأحدث يأتي من واشنطن بوست، حيث ادعى مصدر مجهول أن OpenAI سارعت من خلال اختبارات السلامة واحتفلت بمنتجها قبل التأكد من سلامته.
قال موظف مجهول: “لقد خططوا لعملية الإطلاق قبل معرفة ما إذا كان الإطلاق آمنًا”. واشنطن بوست. “لقد فشلنا بشكل أساسي في هذه العملية.”
تلوح مشكلات السلامة بشكل كبير في OpenAI، ويبدو أنها مستمرة في الظهور. وقع الموظفون الحاليون والسابقون في OpenAI مؤخرًا على رسالة مفتوحة تطالب بممارسات أفضل للسلامة والشفافية من الشركة الناشئة، بعد وقت قصير من حل فريق السلامة الخاص بها بعد رحيل المؤسس المشارك إيليا سوتسكيفر. استقال جان لايكي، أحد الباحثين الرئيسيين في OpenAI، بعد فترة وجيزة، مدعيًا في منشور له أن “ثقافة السلامة والعمليات قد تراجعت عن المنتجات اللامعة” في الشركة.
تعد السلامة أمرًا أساسيًا لميثاق OpenAI، مع بند ينص على أن OpenAI ستساعد المنظمات الأخرى على تعزيز السلامة إذا تم الوصول إلى AGI لدى منافس، بدلاً من الاستمرار في المنافسة. وتدعي أنها مكرسة لحل مشاكل السلامة الكامنة في مثل هذا النظام الكبير والمعقد. حتى أن شركة OpenAI تحافظ على خصوصية نماذجها الخاصة، بدلًا من أن تكون مفتوحة (مما يتسبب في طعنات ودعاوى قضائية)، من أجل السلامة. تجعل التحذيرات الأمر يبدو كما لو أن السلامة قد تم تجاهلها على الرغم من كونها ذات أهمية قصوى لثقافة الشركة وهيكلها.
من الواضح أن OpenAI في موقع الصدارة – لكن جهود العلاقات العامة وحدها لن تكفي لحماية المجتمع
وقالت تايا كريستيانسون، المتحدثة باسم OpenAI، في بيان: “نحن فخورون بسجلنا الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر قدرة والأكثر أمانًا، ونؤمن بنهجنا العلمي في معالجة المخاطر”. الحافة. “يعد النقاش الدقيق أمرًا بالغ الأهمية نظرًا لأهمية هذه التكنولوجيا، وسنواصل العمل مع الحكومات والمجتمع المدني والمجتمعات الأخرى حول العالم لخدمة مهمتنا.”
إن المخاطر المتعلقة بالسلامة، وفقًا لـ OpenAI وآخرين يدرسون التكنولوجيا الناشئة، هائلة. وجاء في تقرير بتكليف من وزارة الخارجية الأمريكية في مارس/آذار: “إن تطوير الذكاء الاصطناعي الحالي يشكل مخاطر عاجلة ومتزايدة على الأمن القومي”. “ظهور الذكاء الاصطناعي المتقدم والذكاء الاصطناعي العام [artificial general intelligence] لديها القدرة على زعزعة استقرار الأمن العالمي بطرق تذكرنا بإدخال الأسلحة النووية.
تأتي أجراس الإنذار في OpenAI أيضًا في أعقاب انقلاب مجلس الإدارة العام الماضي الذي أطاح لفترة وجيزة بالرئيس التنفيذي سام ألتمان. وقال مجلس الإدارة إنه تمت إقالته بسبب فشله في أن يكون “صريحًا باستمرار في اتصالاته”، مما أدى إلى تحقيق لم يفعل الكثير لطمأنة الموظفين.
وقال ليندسي هيلد، المتحدث الرسمي باسم OpenAI، لـ بريد إن إطلاق GPT-4o “لم يقطع الطريق” فيما يتعلق بالسلامة، لكن ممثلًا آخر للشركة لم يذكر اسمه أقر بأن الجدول الزمني لمراجعة السلامة تم ضغطه إلى أسبوع واحد. وقال الممثل المجهول لـ The New York Times: “نحن نعيد التفكير في طريقتنا الكاملة للقيام بذلك”. بريد. “هذا [was] ليست فقط أفضل طريقة للقيام بذلك.
في مواجهة الخلافات المتداولة (تذكر ها حادثة؟) ، حاولت OpenAI تهدئة المخاوف من خلال عدد قليل من الإعلانات في الوقت المناسب. أعلنت هذا الأسبوع أنها تتعاون مع مختبر لوس ألاموس الوطني لاستكشاف كيف يمكن لنماذج الذكاء الاصطناعي المتقدمة، مثل GPT-4o، أن تساعد بأمان في الأبحاث العلمية الحيوية، وفي نفس الإعلان أشارت مرارًا وتكرارًا إلى سجل السلامة الخاص بلوس ألاموس. وفي اليوم التالي، قال متحدث باسم مجهول بلومبرج أن OpenAI أنشأت مقياسًا داخليًا لتتبع التقدم الذي تحرزه نماذجها اللغوية الكبيرة نحو الذكاء العام الاصطناعي.
يبدو أن إعلانات OpenAI التي تركز على السلامة هذا الأسبوع هي بمثابة واجهة دفاعية في مواجهة الانتقادات المتزايدة لممارسات السلامة الخاصة بها. من الواضح أن شركة OpenAI في موقع الصدارة، لكن جهود العلاقات العامة وحدها لن تكفي لحماية المجتمع. ما يهم حقًا هو التأثير المحتمل على أولئك الذين هم خارج فقاعة وادي السيليكون إذا استمرت شركة OpenAI في الفشل في تطوير الذكاء الاصطناعي باستخدام بروتوكولات أمان صارمة، كما يدعي هؤلاء داخليًا: الشخص العادي ليس له رأي في تطوير الذكاء الاصطناعي العام المخصخص، و ومع ذلك، ليس لديهم خيار بشأن مدى حمايتهم من إبداعات OpenAI.
وقالت لينا خان، رئيسة لجنة التجارة الفيدرالية: “أدوات الذكاء الاصطناعي يمكن أن تكون ثورية”. بلومبرج في نوفمبر. ولكن “حتى الآن”، قالت، هناك مخاوف من أن “المدخلات الهامة لهذه الأدوات يتم التحكم فيها من قبل عدد صغير نسبيا من الشركات”.
إذا كانت الادعاءات العديدة ضد بروتوكولات السلامة الخاصة بهم دقيقة، فمن المؤكد أن هذا يثير تساؤلات جدية حول مدى ملاءمة OpenAI لهذا الدور كمشرف على الذكاء الاصطناعي العام، وهو الدور الذي خصصته المنظمة لنفسها بشكل أساسي. إن السماح لمجموعة واحدة في سان فرانسيسكو بالتحكم في التكنولوجيا التي يحتمل أن تغير المجتمع هو أمر يدعو للقلق، وهناك طلب ملح حتى داخل صفوفها على الشفافية والسلامة الآن أكثر من أي وقت مضى.