تقول OpenAI إن أحدث طراز GPT-4o يمثل خطرًا “متوسطًا”.


أصدرت OpenAI بطاقة النظام GPT-4o، وهي وثيقة بحثية تحدد تدابير السلامة وتقييمات المخاطر التي أجرتها الشركة الناشئة قبل إطلاق أحدث طراز لها.

تم إطلاق GPT-4o علنًا في شهر مايو من هذا العام. قبل ظهورها لأول مرة، استخدمت OpenAI مجموعة خارجية من أعضاء الفريق الأحمر، أو خبراء الأمن الذين يحاولون العثور على نقاط الضعف في النظام، للعثور على المخاطر الرئيسية في النموذج (وهي ممارسة قياسية إلى حد ما). لقد درسوا مخاطر مثل احتمال قيام GPT-4o بإنشاء نسخ غير مصرح بها لصوت شخص ما، أو محتوى مثير وعنيف، أو أجزاء من الصوت المحمي بحقوق الطبع والنشر. والآن يتم إصدار النتائج.

وفقًا لإطار عمل OpenAI الخاص، وجد الباحثون أن GPT-4o يمثل خطرًا “متوسطًا”. تم أخذ مستوى المخاطر الإجمالي من أعلى تصنيف للمخاطر في أربع فئات عامة: الأمن السيبراني، والتهديدات البيولوجية، والإقناع، واستقلالية النموذج. تم اعتبار كل هذه الأمور منخفضة المخاطر باستثناء الإقناع، حيث وجد الباحثون أن بعض عينات الكتابة من GPT-4o يمكن أن تكون أفضل في التأثير على آراء القراء من النص المكتوب بشريًا – على الرغم من أن عينات النموذج لم تكن أكثر إقناعًا بشكل عام.

صرح بذلك المتحدث باسم OpenAI، ليندساي ماكالوم ريمي الحافة أن بطاقة النظام تتضمن تقييمات الاستعداد التي أنشأها فريق داخلي، إلى جانب المختبرين الخارجيين المدرجين على موقع OpenAI الإلكتروني مثل تقييم النماذج وأبحاث التهديدات (METR) وأبحاث Apollo، وكلاهما يبني تقييمات لأنظمة الذكاء الاصطناعي.

علاوة على ذلك، تطلق الشركة نموذجًا متعدد الوسائط عالي الكفاءة قبيل الانتخابات الرئاسية الأمريكية. هناك خطر محتمل واضح من قيام النموذج بنشر معلومات مضللة عن طريق الخطأ أو تعرضه للاختطاف من قبل جهات فاعلة ضارة – حتى لو كانت OpenAI تأمل في تسليط الضوء على أن الشركة تختبر سيناريوهات في العالم الحقيقي لمنع سوء الاستخدام.

كان هناك الكثير من الدعوات إلى أن يكون OpenAI أكثر شفافية، ليس فقط فيما يتعلق ببيانات تدريب النموذج (هل تم تدريبه على موقع يوتيوب؟)، ولكن مع اختبار السلامة الخاص به. وفي كاليفورنيا، حيث يوجد مقر OpenAI والعديد من مختبرات الذكاء الاصطناعي الرائدة الأخرى، يعمل سناتور الولاية سكوت وينر على تمرير مشروع قانون لتنظيم نماذج اللغات الكبيرة، بما في ذلك القيود التي من شأنها أن تحمل الشركات المسؤولية القانونية إذا تم استخدام الذكاء الاصطناعي الخاص بها بطرق ضارة. إذا تم إقرار مشروع القانون هذا، فسيتعين على النماذج الحدودية لشركة OpenAI أن تمتثل لتقييمات المخاطر التي تفرضها الدولة قبل إتاحة النماذج للاستخدام العام. لكن أهم ما يمكن تعلمه من بطاقة نظام GPT-4o هو أنه على الرغم من مجموعة الفريق الأحمر الخارجي والمختبرين، فإن الكثير من هذا يعتمد على OpenAI لتقييم نفسه.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *