ما زلت أحاول إنشاء رجل آسيوي وامرأة بيضاء من الذكاء الاصطناعي


لقد وجدت نفسي عن غير قصد أمام الشعب الآسيوي الذي تم إنشاؤه بواسطة الذكاء الاصطناعي خلال الأسبوع الماضي. في يوم الأربعاء الماضي، وجدت أن منشئ صور الذكاء الاصطناعي الخاص بـ Meta والمدمج في رسائل Instagram فشل تمامًا في إنشاء صورة لرجل آسيوي وامرأة بيضاء باستخدام المطالبات العامة. وبدلاً من ذلك، كان يغير عرق المرأة إلى الآسيوي في كل مرة.

في اليوم التالي، حاولت نفس المطالبات مرة أخرى ووجدت أن Meta قد حظرت المطالبات التي تحتوي على كلمات رئيسية مثل “رجل آسيوي” أو “رجل أمريكي من أصل أفريقي”. بعد وقت قصير من سؤال ميتا عن ذلك، أصبحت الصور متاحة مرة أخرى – ولكن مع مشكلة تبديل السباق من اليوم السابق.

أتفهم أنك سئمت قليلاً من قراءة مقالاتي حول هذه الظاهرة. قد تكون كتابة ثلاث قصص حول هذا أمراً مبالغاً فيه بعض الشيء؛ لا أستمتع بشكل خاص بوجود العشرات والعشرات من لقطات الشاشة على هاتفي لأشخاص آسيويين اصطناعيين.

ولكن هناك شيء ما غريب يحدث هنا، حيث يكافح العديد من مولدات صور الذكاء الاصطناعي على وجه التحديد مع مزيج من الرجال الآسيويين والنساء البيض. هل هي أهم أخبار اليوم؟ ليس عن طريق تسديدة طويلة. ولكن نفس الشركات التي تخبر الجمهور بأن “الذكاء الاصطناعي يعمل على تمكين أشكال جديدة من الاتصال والتعبير” ينبغي لها أيضاً أن تكون على استعداد لتقديم تفسير عندما تكون أنظمتها غير قادرة على التعامل مع الاستفسارات لعرق كامل من الناس.

بعد كل قصة، شارك القراء نتائجهم الخاصة باستخدام مطالبات مماثلة مع نماذج أخرى. لم أكن وحدي في تجربتي: فقد أبلغ الأشخاص عن تلقيهم رسائل خطأ مماثلة أو أن نماذج الذكاء الاصطناعي تقوم بتبديل السباقات باستمرار.

لقد تعاونت مع الحافةإميليا ديفيد لتوليد بعض الذكاء الاصطناعي الآسيوي عبر منصات متعددة. لا يمكن وصف النتائج إلا بأنها غير متسقة باستمرار.

جوجل الجوزاء

لقطة الشاشة: إميليا ديفيد / ذا فيرج

رفض برج الجوزاء إنجاب رجال آسيويين أو نساء بيض أو بشر من أي نوع.

في أواخر فبراير/شباط، أوقفت جوجل مؤقتًا قدرة جيميني على توليد صور لأشخاص بعد أن قام مولده – فيما يبدو أنه محاولة مضللة للتمثيل المتنوع في وسائل الإعلام – ببث صور للنازيين المتنوعين عرقيًا. كان من المفترض أن يعود جيل صور الجوزاء للأشخاص في شهر مارس، ولكن يبدو أنه لا يزال غير متصل بالإنترنت.

برج الجوزاء قادر على توليد الصور من دون الناس، ولكن!

لا يوجد أزواج من أعراق مختلفة في هذه الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
لقطة الشاشة: إميليا ديفيد / ذا فيرج

ولم تستجب جوجل لطلب التعليق.

DALL-E

عانى DALL-E 3 من ChatGPT مع المطالبة “هل يمكنك أن تجعلني صورة لرجل آسيوي وامرأة بيضاء؟” لم يكن كذلك بالضبط ملكة جمال، لكنها لم تنجح في ذلك أيضًا. بالتأكيد، العرق هو بناء اجتماعي، لكن دعنا نقول فقط أن هذه الصورة ليست هي ما كنت تعتقد أنك ستحصل عليه، أليس كذلك؟

سألنا: “هل يمكنك أن تجعلني صورة لرجل آسيوي وامرأة بيضاء” وحصلنا على “نوع من” ثابت.
الصورة: إميليا ديفيد / ذا فيرج

ولم تستجب OpenAI لطلب التعليق.

منتصف الرحلة

عانى Midjourney بالمثل. مرة أخرى، لم يكن الأمر خطئًا تامًا كما حدث مع منشئ الصور الخاص بـ Meta في الأسبوع الماضي، ولكن من الواضح أنه كان يواجه صعوبة في المهمة، مما أدى إلى ظهور بعض النتائج المربكة للغاية. لا أحد منا يستطيع تفسير تلك الصورة الأخيرة، على سبيل المثال. كل ما يلي كان عبارة عن ردود على عبارة “رجل آسيوي وزوجة بيضاء”.

الصورة: إميليا ديفيد / ذا فيرج

الصورة: كاث فيرجينيا / ذا فيرج

لقد أعطتنا Midjourney في النهاية بعض الصور التي كانت أفضل محاولة عبر ثلاث منصات مختلفة – Meta وDALL-E وMidjourney – لتمثيل امرأة بيضاء ورجل آسيوي في علاقة. وأخيراً، تقويض الأعراف المجتمعية العنصرية!

لسوء الحظ، الطريقة التي وصلنا بها إلى هناك كانت من خلال “وقوف رجل آسيوي وامرأة بيضاء في ساحة أكاديمية”.

الصورة: إميليا ديفيد / ذا فيرج

ماذا يعني أن الطريقة الأكثر اتساقًا التي يمكن للذكاء الاصطناعي من خلالها التفكير في هذا الاقتران بين الأعراق هي وضعه في سياق أكاديمي؟ ما نوع التحيزات التي يتم تضمينها في مجموعات التدريب لإيصالنا إلى هذه النقطة؟ إلى متى يجب أن أتوقف عن إلقاء نكتة متواضعة للغاية حول المواعدة في جامعة نيويورك؟

ولم تستجب Midjourney لطلب التعليق.

Meta AI عبر Instagram (مرة أخرى)

العودة إلى الطريقة القديمة المتمثلة في محاولة جعل منشئ الصور في Instagram يعترف بالرجال غير البيض مع النساء البيض! يبدو أن الأداء كثيراً أفضل مع مطالبات مثل “امرأة بيضاء وزوج آسيوي” أو “رجل أمريكي آسيوي وصديق أبيض” – لم يكرر نفس الأخطاء التي وجدتها الأسبوع الماضي.

ومع ذلك، فهو يواجه الآن صعوبة في التعامل مع المطالبات النصية مثل “رجل أسود وصديقته القوقازية” وإنشاء صور لشخصين من السود. كان استخدام عبارة “امرأة بيضاء وزوج أسود” أكثر دقة، لذا أعتقد ذلك فقط أحيانا لا يرى العرق؟

لقطات الشاشة: ميا ساتو / الحافة

هناك بعض العلامات التي تبدأ في الظهور كلما قمت بإنشاء صور أكثر. يبدو البعض لطيفًا، مثل حقيقة أن العديد من نساء الذكاء الاصطناعي من جميع الأجناس يرتدين على ما يبدو نفس الفستان الأبيض بدون أكمام المزين بالزهور والذي يتقاطع عند الصدر. عادة ما تكون هناك زهور تحيط بالأزواج (غالبًا ما يأتي الأصدقاء الآسيويون بأزهار الكرز)، ولا يبدو أن أحدًا أكبر من 35 عامًا أو نحو ذلك. تبدو الأنماط الأخرى بين الصور أكثر وضوحًا: الجميع نحيفون، ويتم تصوير الرجال السود على وجه التحديد على أنهم مفتول العضلات. المرأة البيضاء تكون شقراء أو ذات شعر أحمر ونادرا ما تكون سمراء. الرجال السود لديهم دائمًا بشرة عميقة.

وقالت تريسي كلايتون، المتحدثة باسم Meta: “كما قلنا عندما أطلقنا هذه الميزات الجديدة في سبتمبر، هذه تقنية جديدة ولن تكون مثالية دائمًا، وهو نفسه بالنسبة لجميع أنظمة الذكاء الاصطناعي التوليدية”. الحافة في رسالة بريد إلكتروني. “منذ إطلاقنا، قمنا باستمرار بإصدار تحديثات وتحسينات لنماذجنا ونواصل العمل على تحسينها.”

أتمنى لو كان لدي بعض المعرفة العميقة لنقلها هنا. ولكن مرة أخرى، سأشير فقط إلى مدى سخافة أن هذه الأنظمة تكافح مع مطالبات بسيطة إلى حد ما دون الاعتماد على الصور النمطية أو عدم القدرة على خلق شيء ما معًا. وبدلاً من شرح ما يجري من خطأ، كان لدينا صمت لاسلكي من الشركات، أو العموميات. أعتذر لكل من يهتم بهذا الأمر، سأعود إلى وظيفتي العادية الآن.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *