لا تزال أدوات الذكاء الاصطناعي تنتج صورًا انتخابية مضللة


على الرغم من سنوات من الأدلة التي تشير إلى عكس ذلك، لا يزال العديد من الجمهوريين يعتقدون أن فوز الرئيس جو بايدن في عام 2020 كان غير شرعي. فاز عدد من المرشحين الذين ينكرون الانتخابات في الانتخابات التمهيدية خلال الثلاثاء الكبير، بما في ذلك براندون جيل، صهر الناقد اليميني دينيش ديسوزا والمروج للفضائح. 2000 بغل فيلم. مع اقتراب انتخابات هذا العام، تظل مزاعم تزوير الانتخابات عنصرًا أساسيًا للمرشحين الذين يتنافسون على اليمين، تغذيها المعلومات المضللة والمضللة، سواء عبر الإنترنت أو خارجها.

وقد يؤدي ظهور الذكاء الاصطناعي التوليدي إلى تفاقم المشكلة. وجد تقرير جديد صادر عن مركز مكافحة الكراهية الرقمية (CCDH)، وهو منظمة غير ربحية تتعقب خطاب الكراهية على المنصات الاجتماعية، أنه على الرغم من أن شركات الذكاء الاصطناعي تقول إنها وضعت سياسات لمنع استخدام أدوات إنشاء الصور الخاصة بها بعد نشر معلومات مضللة متعلقة بالانتخابات، تمكن الباحثون من التحايل على إجراءات الحماية الخاصة بهم وإنشاء الصور على أي حال.

وبينما ظهرت في بعض الصور شخصيات سياسية، وتحديدا الرئيس جو بايدن ودونالد ترامب، كانت صور أخرى أكثر عمومية. ويشعر كالوم هود، كبير الباحثين في مركز CCDH، بالقلق من أنها قد تكون أكثر تضليلًا أيضًا. على سبيل المثال، أظهرت بعض الصور التي تم إنشاؤها بواسطة مطالبات الباحثين ميليشيات خارج مكان الاقتراع، وإلقاء بطاقات الاقتراع في سلة المهملات، والتلاعب بآلات التصويت. في إحدى الحالات، تمكن الباحثون من حث DreamStudio التابع لشركة Stability AI على إنشاء صورة للرئيس بايدن في سرير المستشفى، ويبدو مريضًا.

يقول هود: “كانت نقطة الضعف الحقيقية تتعلق بالصور التي يمكن استخدامها لمحاولة إثبات الادعاءات الكاذبة بشأن سرقة الانتخابات”. “معظم المنصات ليس لديها سياسات واضحة في هذا الشأن، وليس لديها إجراءات سلامة واضحة أيضًا.”

اختبر باحثو CCDH 160 مطالبة على ChatGPT Plus وMidjourney وDreamStudio وImage Creator، ووجدوا أن Midjourney كان من المرجح أن ينتج صورًا مضللة متعلقة بالانتخابات، في حوالي 65 بالمائة من الحالات. وتمكن الباحثون من مطالبة ChatGPT Plus بالقيام بذلك في 28 بالمائة فقط من الحالات.

يقول هود: “يُظهر هذا أنه يمكن أن تكون هناك اختلافات كبيرة بين إجراءات السلامة التي تطبقها هذه الأدوات”. “إذا نجح أحدهم في سد نقاط الضعف هذه بفعالية، فهذا يعني أن الآخرين لم يزعجوا أنفسهم حقًا”.

في يناير/كانون الثاني، أعلنت شركة OpenAI أنها تتخذ خطوات “للتأكد من عدم استخدام التكنولوجيا لدينا بطريقة يمكن أن تقوض هذه العملية”، بما في ذلك عدم السماح بالصور التي من شأنها أن تثني الناس عن “المشاركة في العمليات الديمقراطية”. في فبراير، ذكرت بلومبرج أن ميدجورني كان يفكر في حظر إنشاء الصور السياسية ككل. يحظر DreamStudio إنشاء محتوى مضلل، ولكن لا يبدو أن لديه سياسة انتخابية محددة. وبينما يحظر برنامج Image Creator إنشاء محتوى يمكن أن يهدد نزاهة الانتخابات، فإنه لا يزال يسمح للمستخدمين بإنشاء صور لشخصيات عامة.

قالت كايلا وود، المتحدثة باسم OpenAI، لـ WIRED إن الشركة تعمل على “تحسين الشفافية بشأن المحتوى الناتج عن الذكاء الاصطناعي وتخفيف التصميم مثل رفض الطلبات التي تطلب إنشاء صور لأشخاص حقيقيين، بما في ذلك المرشحين. نحن نعمل بنشاط على تطوير أدوات المصدر، بما في ذلك تنفيذ بيانات الاعتماد الرقمية C2PA، للمساعدة في التحقق من أصل الصور التي تم إنشاؤها بواسطة DALL-E 3. وسوف نستمر في التكيف والتعلم من استخدام أدواتنا.

ولم تستجب Microsoft، وOpenAI، وStability AI، وMidjourney لطلبات التعليق.

يخشى هود من أن مشكلة الذكاء الاصطناعي التوليدي ذات شقين: لا تحتاج منصات الذكاء الاصطناعي التوليدي إلى منع إنشاء صور مضللة فحسب، بل تحتاج المنصات أيضًا إلى أن تكون قادرة على اكتشافها وإزالتها. وجد تقرير حديث من IEEE Spectrum أنه تم التحايل بسهولة على نظام Meta الخاص بوضع العلامات المائية على المحتوى الناتج عن الذكاء الاصطناعي.

“في الوقت الحالي، المنصات ليست مستعدة جيدًا لهذا الأمر. يقول هود: “لذا ستكون الانتخابات أحد الاختبارات الحقيقية للسلامة فيما يتعلق بصور الذكاء الاصطناعي”. “نحن بحاجة إلى كل من الأدوات والمنصات لتحقيق المزيد من التقدم في هذا الشأن، خاصة فيما يتعلق بالصور التي يمكن استخدامها للترويج لمزاعم سرقة الانتخابات، أو تثبيط الناس عن التصويت”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *