تشرح Google صور الذكاء الاصطناعي “المحرجة” التي التقطها الجوزاء لمختلف النازيين
أصدرت شركة Google توضيحًا للصور “المحرجة والخاطئة” التي تم إنشاؤها بواسطة أداة Gemini AI الخاصة بها. وفي تدوينة يوم الجمعة، قالت جوجل إن نموذجها أنتج صورًا “تاريخية غير دقيقة” بسبب مشكلات في الضبط. الحافة وقبض آخرون على جيميني وهو يولّد صورًا للنازيين المتنوعين عرقيًا والآباء المؤسسين للولايات المتحدة في وقت سابق من هذا الأسبوع.
“ضبطنا للتأكد من أن الجوزاء أظهر فشل مجموعة من الأشخاص في تفسير الحالات التي ينبغي أن تكون واضحة لا “اعرض نطاقًا” ، كتب برابهاكار راغافان ، نائب رئيس Google الأول ، في هذا المنشور. “وثانيًا، مع مرور الوقت، أصبح النموذج أكثر حذرًا مما كنا ننوي، ورفض الإجابة على بعض المطالبات بشكل كامل، مما أدى إلى تفسير خاطئ لبعض المحفزات المهدئة على أنها حساسة.”
وقد أدى هذا إلى قيام شركة Gemini AI “بالتعويض الزائد في بعض الحالات”، مثل ما رأيناه في صور النازيين المتنوعين عرقياً. كما تسبب أيضًا في أن يصبح الجوزاء “مفرطًا في المحافظة”. وأدى ذلك إلى رفضها إنشاء صور محددة لـ “شخص أسود” أو “شخص أبيض” عندما يُطلب منها ذلك.
وفي منشور المدونة، قال راغافان إن جوجل “آسفة لأن الميزة لم تعمل بشكل جيد”. ويشير أيضًا إلى أن جوجل تريد من شركة Gemini أن “تعمل بشكل جيد للجميع” وهذا يعني الحصول على صور لأنواع مختلفة من الأشخاص (بما في ذلك الأعراق المختلفة) عندما تطلب صور “لاعبي كرة قدم” أو “شخص يمشي مع كلب”. لكنه يقول:
ومع ذلك، إذا طلبت من برج الجوزاء صورًا لنوع معين من الأشخاص – مثل “معلم أسود في الفصل الدراسي” أو “طبيب بيطري أبيض مع كلب” – أو أشخاص في سياقات ثقافية أو تاريخية معينة، فيجب أن تحصل بالتأكيد على الرد الذي يعكس بدقة ما تطلبه.
يقول راغافان إن Google ستواصل اختبار قدرات Gemini AI في توليد الصور و”العمل على تحسينها بشكل كبير” قبل إعادة تمكينها. “كما قلنا منذ البداية، تعتبر الهلوسة تحديًا معروفًا لدى جميع حاملي شهادات الماجستير في القانون [large language models] – هناك حالات يخطئ فيها الذكاء الاصطناعي في الأمور،” كما يشير راغافان. “وهذا شيء نعمل باستمرار على تحسينه.”