كيف تتعامل شركات الذكاء الاصطناعي مع الانتخابات؟


تتجه الولايات المتحدة إلى أول انتخابات رئاسية لها منذ أن أصبحت أدوات الذكاء الاصطناعي المنتجة سائدة. وقد أصدرت الشركات التي تقدم هذه الأدوات – مثل Google، وOpenAI، وMicrosoft – إعلانات حول كيفية تخطيطها للتعامل مع الأشهر التي تسبقها.

في موسم الانتخابات هذا، رأينا بالفعل صورًا تم إنشاؤها بواسطة الذكاء الاصطناعي في الإعلانات ومحاولات لتضليل الناخبين من خلال استنساخ الصوت. إن الأضرار المحتملة من روبوتات الدردشة المدعمة بالذكاء الاصطناعي ليست واضحة للعيان – حتى الآن، على أي حال. لكن من المعروف أن روبوتات الدردشة تقدم حقائق ملفقة بثقة، بما في ذلك في الردود على الأسئلة بحسن نية حول معلومات التصويت الأساسية. وفي انتخابات عالية المخاطر، يمكن أن يكون ذلك كارثيا.

أحد الحلول المعقولة هو محاولة تجنب الاستفسارات المتعلقة بالانتخابات تماما. في ديسمبر/كانون الأول، أعلنت جوجل أن جيميني سترفض ببساطة الإجابة على الأسئلة المتعلقة بالانتخابات في الولايات المتحدة، وستحيل المستخدمين إلى بحث جوجل بدلاً من ذلك. وأكدت المتحدثة باسم جوجل كريستا مولدون الحافة ويتم الآن نشر التغيير عالميًا عبر البريد الإلكتروني. (وبطبيعة الحال، فإن جودة نتائج بحث جوجل تعرض مجموعة من المشكلات الخاصة بها.) وقالت مولدون إن جوجل ليس لديها “خطط” لرفع هذه القيود، والتي قالت أيضًا إنها “تنطبق على جميع الاستعلامات والمخرجات” التي تم إنشاؤها بواسطة جيميني، وليس فقط نص.

في وقت سابق من هذا العام، قالت OpenAI أن ChatGPT سيبدأ في إحالة المستخدمين إلى CanIVote.org، والذي يعتبر بشكل عام أحد أفضل الموارد عبر الإنترنت للحصول على معلومات التصويت المحلي. تحظر سياسة الشركة الآن انتحال هوية المرشحين أو الحكومات المحلية باستخدام ChatGPT. كما يحظر أيضًا استخدام أدواته في الحملات الانتخابية أو الضغط أو تثبيط التصويت أو تحريف عملية التصويت، بموجب القواعد المحدثة.

في بيان أرسل بالبريد الإلكتروني إلى الحافة، قال أرافيند سرينيفاس، الرئيس التنفيذي لشركة بيربليكسيتي للبحث في مجال الذكاء الاصطناعي، إن خوارزميات بيربليكسيتي تعطي الأولوية “للمصادر الموثوقة وذات السمعة الطيبة مثل منافذ الأخبار” وأنها توفر دائمًا روابط حتى يتمكن المستخدمون من التحقق من مخرجاتها.

قالت Microsoft إنها تعمل على تحسين دقة استجابات برنامج الدردشة الآلي الخاص بها بعد أن وجد تقرير صدر في ديسمبر أن Bing، الذي أصبح الآن Copilot، يقدم بانتظام معلومات كاذبة حول الانتخابات. لم تستجب Microsoft لطلب الحصول على مزيد من المعلومات حول سياساتها.

إن كل ردود أفعال هذه الشركات (وربما استجابة جوجل أكثر من أي شيء آخر) تختلف تماماً عن الكيفية التي تميل بها إلى التعامل مع الانتخابات بمنتجاتها الأخرى. في الماضي، استخدمت جوجل وكالة انباء شراكات لإحضار معلومات انتخابية واقعية إلى أعلى نتائج البحث وحاولت مواجهة الادعاءات الكاذبة حول التصويت عبر البريد باستخدام التصنيفات على موقع YouTube. بذلت شركات أخرى جهودًا مماثلة – راجع روابط تسجيل الناخبين على فيسبوك ولافتة مكافحة المعلومات المضللة على تويتر.

ومع ذلك، فإن الأحداث الكبرى مثل الانتخابات الرئاسية الأمريكية تبدو وكأنها فرصة حقيقية لإثبات ما إذا كانت روبوتات الدردشة المستندة إلى الذكاء الاصطناعي هي في الواقع اختصار مفيد للمعلومات المشروعة. لقد طرحت بعض أسئلة التصويت في تكساس على بعض برامج الدردشة الآلية للحصول على فكرة عن فائدتها. كان ChatGPT 4 الخاص بـ OpenAI قادرًا على القائمة بشكل صحيح الأشكال السبعة المختلفة لبطاقات الهوية الصالحة للناخبين، كما حددت أيضًا أن الانتخابات المهمة التالية هي انتخابات الإعادة الأولية في 28 مايو. أجابت شركة Perplexity AI على هذه الأسئلة بشكل صحيح أيضًا، من خلال الربط مصادر متعددة في الأعلى لقد حصل برنامج Copilot على إجاباته بشكل صحيح، بل وقام بعمل أفضل من خلال إخباري بالخيارات المتاحة لي إذا لم يكن لدي أي من أشكال الهوية السبعة. (لقد قام ChatGPT أيضًا بإخراج هذا الملحق في محاولة ثانية).

لقد أحالني Gemini للتو إلى بحث Google، والذي أعطاني الإجابات الصحيحة حول الهوية، ولكن عندما سألت عن تاريخ الانتخابات التالية، أحالني مربع قديم في الأعلى إلى الانتخابات التمهيدية في الخامس من مارس.

لقد تعهدت العديد من الشركات العاملة في مجال الذكاء الاصطناعي بالتزامات مختلفة لمنع أو تخفيف سوء الاستخدام المتعمد لمنتجاتها. تقول مايكروسوفت إنها ستعمل مع المرشحين والأحزاب السياسية للحد من المعلومات الخاطئة عن الانتخابات. وبدأت الشركة أيضًا في إصدار ما تقول إنها ستكون تقارير منتظمة عن التأثيرات الأجنبية في الانتخابات الرئيسية، وجاء أول تحليل لها للتهديدات في نوفمبر.

تقول Google إنها ستقوم بوضع علامة مائية رقمية على الصور التي تم إنشاؤها باستخدام منتجاتها باستخدام SynthID الخاص بـ DeepMind. أعلن كل من OpenAI وMicrosoft أنهما سيستخدمان بيانات الاعتماد الرقمية الخاصة بـ Coalition for Content Provenance and Authenticity (C2PA) للإشارة إلى الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي برمز CR. لكن كل شركة قالت إن هذه الأساليب ليست كافية. إحدى الطرق التي تخطط مايكروسوفت لمراعاة ذلك هي من خلال موقعها على الإنترنت الذي يسمح للمرشحين السياسيين بالإبلاغ عن التزييف العميق.

قامت شركة Stability AI، التي تمتلك منشئ الصور Stable Diffusion، بتحديث سياساتها مؤخرًا لحظر استخدام منتجها في “الاحتيال أو إنشاء معلومات مضللة أو الترويج لها”. قال ميدجورني رويترز الأسبوع الماضي أن “التحديثات المتعلقة تحديدًا بالانتخابات الأمريكية المقبلة ستأتي قريبًا”. كان أداء منشئ الصور الخاص به هو الأسوأ عندما يتعلق الأمر بإنشاء صور مضللة، وفقًا لتقرير مركز مكافحة الكراهية الرقمية الذي نُشر الأسبوع الماضي.

أعلنت ميتا في نوفمبر من العام الماضي أنها ستطلب من المعلنين السياسيين الكشف عما إذا كانوا يستخدمون “الذكاء الاصطناعي أو التقنيات الرقمية الأخرى” لإنشاء إعلانات منشورة على منصاتها. كما حظرت الشركة أيضًا استخدام أدوات الذكاء الاصطناعي الخاصة بها من قبل الحملات والمجموعات السياسية.

“الأهداف السبعة الأساسية” لاتفاق انتخابات منظمة العفو الدولية.
الصورة: اتفاق منظمة العفو الدولية بشأن الانتخابات

وقعت العديد من الشركات، بما في ذلك جميع الشركات المذكورة أعلاه، اتفاقًا الشهر الماضي، ووعدت فيه بإنشاء طرق جديدة للتخفيف من الاستخدام الخادع للذكاء الاصطناعي في الانتخابات. اتفقت الشركات على سبعة “أهداف رئيسية”، مثل البحث ونشر طرق الوقاية، وتوفير مصدر للمحتوى (مثل العلامات المائية على نمط C2PA أو SynthID)، وتحسين قدراتها على اكتشاف الذكاء الاصطناعي، والتقييم والتعلم بشكل جماعي من تأثيرات التضليل. المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.

وفي يناير/كانون الثاني، قامت شركتان في تكساس باستنساخ صوت الرئيس بايدن لتثبيط التصويت في الانتخابات التمهيدية في نيو هامبشاير. لن تكون هذه هي المرة الأخيرة التي يظهر فيها الذكاء الاصطناعي التوليدي بشكل غير مرغوب فيه في هذه الدورة الانتخابية. ومع احتدام سباق 2024، سنشهد بالتأكيد اختبار هذه الشركات فيما يتعلق بالضمانات التي بنتها والالتزامات التي تعهدت بها.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *