يحذر OpenAI المستخدمين من أن يصبحوا مدمنين عاطفيًا على الوضع الصوتي الخاص به
وفي أواخر يوليو/تموز، بدأت OpenAI في طرح واجهة صوتية تشبه البشر بشكل مخيف لـ ChatGPT. وفي تحليل للسلامة تم إصداره اليوم، اعترفت الشركة بأن هذا الصوت المجسم قد يجذب بعض المستخدمين إلى الارتباط عاطفيًا ببرنامج الدردشة الآلي الخاص بهم.
تم تضمين التحذيرات في “بطاقة النظام” الخاصة بـ GPT-4o، وهي وثيقة فنية توضح ما تعتقد الشركة أنها المخاطر المرتبطة بالنموذج، بالإضافة إلى التفاصيل المحيطة باختبارات السلامة وجهود التخفيف التي تبذلها الشركة لتقليل المخاطر المحتملة.
وواجهت شركة OpenAI التدقيق في الأشهر الأخيرة بعد أن ترك عدد من الموظفين العاملين في مجال مخاطر الذكاء الاصطناعي طويلة المدى الشركة. واتهم البعض في وقت لاحق شركة OpenAI باستغلال فرص غير ضرورية وإسكات المنشقين في سباقها لتسويق الذكاء الاصطناعي. قد يساعد الكشف عن المزيد من التفاصيل حول نظام السلامة الخاص بـ OpenAI في تخفيف الانتقادات وطمأنة الجمهور بأن الشركة تأخذ هذه القضية على محمل الجد.
المخاطر التي تم استكشافها في بطاقة النظام الجديد واسعة النطاق، وتشمل احتمال قيام GPT-4o بتضخيم التحيزات المجتمعية، ونشر المعلومات المضللة، والمساعدة في تطوير الأسلحة الكيميائية أو البيولوجية. ويكشف أيضًا عن تفاصيل الاختبار المصمم للتأكد من أن نماذج الذكاء الاصطناعي لن تحاول التحرر من ضوابطها، أو خداع الأشخاص، أو التخطيط لخطط كارثية.
يشيد بعض الخبراء الخارجيين بشركة OpenAI لشفافيتها، لكنهم يقولون إنها يمكن أن تذهب إلى أبعد من ذلك.
تشير لوسي إيمي كافي، باحثة السياسات التطبيقية في شركة Hugging Face، وهي شركة تستضيف أدوات الذكاء الاصطناعي، إلى أن بطاقة نظام OpenAI الخاصة بـGPT-4o لا تتضمن تفاصيل شاملة عن بيانات تدريب النموذج أو من يملك تلك البيانات. يقول كافي: “إن مسألة الموافقة على إنشاء مثل هذه المجموعة الكبيرة من البيانات التي تشمل طرائق متعددة، بما في ذلك النص والصورة والكلام، تحتاج إلى معالجة”.
ويشير آخرون إلى أن المخاطر يمكن أن تتغير مع استخدام الأدوات في البرية. يقول نيل تومسون، الأستاذ في معهد ماساتشوستس للتكنولوجيا الذي يدرس تقييمات مخاطر الذكاء الاصطناعي: “يجب أن تكون المراجعة الداخلية لهم هي الجزء الأول فقط لضمان سلامة الذكاء الاصطناعي”. “تظهر العديد من المخاطر فقط عند استخدام الذكاء الاصطناعي في العالم الحقيقي. ومن المهم أن يتم تصنيف هذه المخاطر الأخرى وتقييمها مع ظهور نماذج جديدة.
تسلط بطاقة النظام الجديدة الضوء على مدى سرعة تطور مخاطر الذكاء الاصطناعي مع تطوير ميزات جديدة قوية مثل الواجهة الصوتية لـ OpenAI. في شهر مايو، عندما كشفت الشركة عن الوضع الصوتي الخاص بها، والذي يمكنه الاستجابة بسرعة والتعامل مع المقاطعات بشكل طبيعي ذهابًا وإيابًا، لاحظ العديد من المستخدمين أنه بدا غزليًا بشكل مفرط في العروض التوضيحية. وواجهت الشركة فيما بعد انتقادات من الممثلة سكارليت جوهانسون التي اتهمتها بتقليد أسلوبها في الكلام.
يستكشف قسم من بطاقة النظام بعنوان “التجسيم والاعتماد العاطفي” المشكلات التي تنشأ عندما ينظر المستخدمون إلى الذكاء الاصطناعي من الناحية البشرية، وهو أمر يتفاقم على ما يبدو بسبب وضع الصوت الشبيه بالإنسان. أثناء الفريق الأحمر، أو اختبار الإجهاد، لـ GPT-4o، على سبيل المثال، لاحظ باحثو OpenAI حالات كلام من المستخدمين تنقل إحساسًا بالارتباط العاطفي مع النموذج. على سبيل المثال، استخدم الأشخاص لغة مثل “هذا هو آخر يوم لنا معًا”.
يقول OpenAI إن التجسيم قد يدفع المستخدمين إلى وضع المزيد من الثقة في مخرجات النموذج عندما “يهلوس” بمعلومات غير صحيحة. وبمرور الوقت، قد يؤثر ذلك أيضًا على علاقات المستخدمين مع الآخرين. تقول الوثيقة: “قد يشكل المستخدمون علاقات اجتماعية مع الذكاء الاصطناعي، مما يقلل من حاجتهم إلى التفاعل البشري، مما قد يفيد الأفراد الوحيدين ولكن ربما يؤثر على العلاقات الصحية”.
يقول Joaquin Quiñonero Candela، عضو الفريق الذي يعمل على سلامة الذكاء الاصطناعي في OpenAI، إن الوضع الصوتي يمكن أن يتطور إلى واجهة قوية فريدة من نوعها. ويشير أيضًا إلى أن نوع التأثيرات العاطفية التي تظهر مع GPT-4o يمكن أن تكون إيجابية، على سبيل المثال، من خلال مساعدة أولئك الذين يشعرون بالوحدة أو الذين يحتاجون إلى ممارسة التفاعلات الاجتماعية. ويضيف أن الشركة ستدرس التجسيم والعلاقات العاطفية عن كثب، بما في ذلك من خلال مراقبة كيفية تفاعل مختبري النسخة التجريبية مع ChatGPT. ويقول: “ليس لدينا نتائج لنشاركها في الوقت الحالي، ولكنها مدرجة في قائمة اهتماماتنا”.