إن مكالمة بايدن Deepfake Robocall هي البداية فقط


“في السياسة الأمريكية، لسوء الحظ، أصبحت المعلومات المضللة شائعة. وقال كلارك في بيان لمجلة WIRED يوم الاثنين: “ولكن الآن، فإن المعلومات الخاطئة والمعلومات المضللة إلى جانب أدوات الذكاء الاصطناعي التوليدية الجديدة تخلق تهديدًا غير مسبوق ونحن غير مستعدين لمواجهته”. “هذه مشكلة يجب أن يتمكن الديمقراطيون والجمهوريون من معالجتها معًا. يحتاج الكونجرس إلى التعامل مع هذا الأمر قبل أن تخرج الأمور عن السيطرة”.

قدمت مجموعات المناصرة مثل Public Citizen التماسًا إلى لجنة الانتخابات الفيدرالية لإصدار قواعد جديدة تتطلب الكشف عن الإعلانات السياسية على غرار ما اقترحه كلارك وكلوبوشار، لكنها لم تتخذ أي قرار رسمي بعد. في وقت سابق من هذا الشهر، قال رئيس لجنة الانتخابات الفيدرالية، شون كوكسي، وهو جمهوري، لـ واشنطن بوست أن اللجنة تخطط لاتخاذ قرار بحلول أوائل الصيف. بحلول ذلك الوقت، من المرجح أن يكون الحزب الجمهوري قد اختار ترامب بالفعل كمرشح له، وستكون الانتخابات العامة على قدم وساق.

وقالت كلوبوشار لـ WIRED يوم الاثنين: “سواء كنت ديمقراطيًا أو جمهوريًا، لا أحد يريد أن يرى إعلانات مزيفة أو مكالمات آلية حيث لا يمكنك حتى معرفة ما إذا كان مرشحك أم لا”. “نحن بحاجة إلى إجراء فيدرالي لضمان عدم استخدام هذه التكنولوجيا القوية لخداع الناخبين ونشر المعلومات المضللة.”

يقول هاني فريد، الأستاذ في كلية بيركلي للمعلومات، إن التزييف الصوتي ضار بشكل خاص لأنه، على عكس الصور أو مقاطع الفيديو المزيفة، يفتقر إلى العديد من الإشارات المرئية التي قد تساعد الشخص على التعرف على أنه قد تم تغييره. “باستخدام المكالمات الآلية، لا تكون جودة الصوت على الهاتف رائعة، وبالتالي يكون من الأسهل خداع الأشخاص بصوت مزيف.”

يشعر فريد أيضًا بالقلق من أن المكالمات الهاتفية، على عكس المنشورات المزيفة على وسائل التواصل الاجتماعي، من المرجح أن تصل إلى فئة سكانية أكبر سنًا معرضة بالفعل لعمليات الاحتيال.

يقول: “قد يجادل المرء بأن الكثير من الناس اكتشفوا أن هذا الصوت كان مزيفًا، لكن المشكلة في الانتخابات التمهيدية بالولاية هي أنه حتى بضعة آلاف من الأصوات يمكن أن يكون لها تأثير على النتائج”. “بالطبع، يمكن تنفيذ هذا النوع من التدخل في الانتخابات دون التزييف العميق، ولكن القلق هو أن التزييف العميق المدعوم بالذكاء الاصطناعي يجعل هذه الحملات أكثر فعالية وأسهل في التنفيذ.”

يقول سام جريجوري، مدير البرامج في ويتنس، وهي منظمة غير ربحية تساعد الناس على استخدام التكنولوجيا لتعزيز حقوق الإنسان، لقد تخلفت التنظيمات الملموسة إلى حد كبير، حتى مع أن التزييف العميق مثل ذلك الذي تستخدمه المكالمات الآلية أصبح أرخص وأسهل في الإنتاج من أي وقت مضى. ويقول: “لم يعد يبدو وكأنه روبوت بعد الآن”.

ويقول: “لقد تصارع الناس في هذه المنطقة مع كيفية وضع علامة على الصوت لإظهار أن مصدره اصطناعي”. “على سبيل المثال، يمكنك إلزام الأشخاص بوضع إخلاء المسؤولية في بداية مقطع صوتي يفيد بأنه تم إنتاجه باستخدام الذكاء الاصطناعي. إذا كنت ممثلًا سيئًا أو شخصًا يقوم بإجراء مكالمة آلية خادعة، فمن الواضح أنك لا تفعل ذلك.

حتى لو تم وضع علامة مائية على جزء من المحتوى الصوتي، فقد يتم ذلك بطريقة واضحة للآلة، ولكن ليس بالضرورة لشخص عادي، كما تقول كلير ليبوفيتش، رئيسة سلامة الوسائط في الشراكة من أجل الذكاء الاصطناعي. ولا يزال القيام بذلك يعتمد على حسن نية المنصات المستخدمة لإنشاء الصوت المزيف العميق. وتضيف: “لم نكتشف بعد ما يعنيه أن تكون هذه الأدوات مفتوحة المصدر لأولئك الذين يريدون خرق القانون”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *