بعد أزمة تايلور سويفت .. كل ما تحتاج معرفته عن الـ Deepfakes؟



انتشرت صور جنسية صريحة لتايلور سويفت، والتي ربما تم إنشاؤها بواسطة الذكاء الاصطناعي، بسرعة على وسائل التواصل الاجتماعي هذا الأسبوع، وشوهد بعضها ملايين المرات قبل أن تقوم منصات مثل X بإزالتها، وفقًا للعديد من التقارير الإخبارية، حيث أعادت الصور، المعروفة باسم “التزييف العميق”، إشعال الجدل حول تنظيم الذكاء الاصطناعي.


ما هي التزييف العميق؟


Deepfakes عبارة عن مقاطع فيديو أو صور مزيفة واقعية تم إنشاؤها باستخدام تقنية تبديل الوجه والصوت، وغالبًا ما تنتشر على منصات التواصل الاجتماعي وقد تحسنت في تقليد صوت الشخص، وحدث ذلك في الوقت الذي تكافح فيه أدوات التعرف على الصورة التي صنعها الذكاء الاصطناعي من أجل مواكبة ذلك، مما يجعل من الصعب على تلك المنصات تحديد مقاطع الفيديو التي بها مشكلات.


وحذر المشاهير متابعيهم من الوقوع في فخ التزييف العميق، كما أدى الوصول السهل إلى تقنية التصوير بالذكاء الاصطناعي إلى إنشاء أداة جديدة لاستهداف النساء، مما يسمح لأي شخص تقريبًا بإنتاج ومشاركة صورهن العارية.


 


وقبل الانتخابات الرئاسية لعام 2024، يمنح الذكاء الاصطناعي أيضًا للسياسيين الأعذار لرفض الأدلة التي قد تكون ضارة باعتبارها مزيفة ناتجة عن الذكاء الاصطناعي، ويحدث هذا في نفس الوقت الذي يتم فيه استخدام تقنية التزييف العميق الحقيقية للذكاء الاصطناعي لنشر معلومات مضللة.


هل التزييف العميق غير قانوني؟


لا يوجد قانون فيدرالي يجعل إنشاء التزييف العميق أمرًا غير قانوني على المستوى الوطني، على الرغم من أن بعض المشرعين قدموا مشاريع قوانين لمحاولة ذلك، وفي الكونجرس، قدم النائب جوزيف موريل (ديمقراطي من ولاية نيويورك) مشروع قانون يسمى قانون منع التزييف العميق للصور الحميمة، والذي يقول إنه سيجعل إنشاء هذه الأنواع من مقاطع الفيديو جريمة فيدرالية.


وكتبت موريل يوم الخميس على موقع X: “إن انتشار الصور الفاضحة التي تم إنشاؤها بواسطة الذكاء الاصطناعي لتايلور سويفت أمر مروع – وللأسف، يحدث هذا للنساء في كل مكان، كل يوم”.


 


وفي مؤتمر صحفي يوم الجمعة، قالت المتحدثة باسم البيت الأبيض كارين جان بيير إن إدارة بايدن “منزعجة” من انتشار الفيروس، وقالت إن شركات وسائل التواصل الاجتماعي يجب أن “تمنع انتشار المعلومات المضللة والصور الحميمية غير التوافقية لأشخاص حقيقيين”.


 


كما أصدر الرئيس بايدن أمرًا تنفيذيًا في أكتوبر، قال بيان للبيت الأبيض إنه سيضع معايير وأفضل الممارسات للمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. لكنها لم تصل إلى حد مطالبة الشركات بتسمية الصور ومقاطع الفيديو والصوت التي تم إنشاؤها بواسطة الذكاء الاصطناعي.


 


وفي مؤتمر صحفي بالبيت الأبيض يوم 26 يناير، قالت المتحدثة باسم كارين جان بيير إن الإدارة “منزعجة” من انتشار الصور التي أنشأها الذكاء الاصطناعي لتايلور سويفت، ويقول بعض المشرعين في الولاية إن الحكومة الفيدرالية كانت بطيئة في التصرف. 


 


وردا على ذلك، تحاول الولايات أن تقود الطريق في تنفيذ حواجز الحماية ضد الذكاء الاصطناعي، مع سن بعض التدابير للحماية من استخدام التزييف العميق في الانتخابات، بما في ذلك تكساس وكاليفورنيا، وحظرت جورجيا وفيرجينيا، من بين دول أخرى، إنشاء مواد إباحية عميقة التزييف دون رضاهم.


 


ومع ذلك، يرى البعض أن حظر جميع أنواع مقاطع الفيديو المزيفة يمكن أن ينتهك التعديل الأول، لأن مقاطع الفيديو هي “أشكال تعبير من الناحية الفنية”، وفقًا لمجلة برينستون القانونية، وكتبت المجلة أن مقاطع الفيديو الإباحية المزيفة التي تم الحصول عليها بالتراضي لن تكون محمية بموجب استثناءات التعديل الأول التي تشمل القذف والتشهير والألفاظ النابية.


 


ويحذر بعض الباحثين القانونيين أيضًا من أن صور الذكاء الاصطناعي المزيفة قد لا تندرج تحت حماية حقوق الطبع والنشر لأنها تستمد من مجموعات بيانات تضم ملايين الصور.


كيفية اكتشاف التزييف العميق


بين ديسمبر 2018 وديسمبر 2020، تضاعف عدد مقاطع الفيديو المزيفة المكتشفة عبر الإنترنت كل ستة أشهر، وفقًا لشركة Sensity AI، التي تتعقب مقاطع الفيديو المزيفة العميقة، ووجدت شركة Sensity أن ما لا يقل عن 90 بالمائة من مقاطع الفيديو كانت إباحية بدون موافقة، ومعظمها يتضمن لقطات معدلة لنساء.


وجد الباحثون أنه في عام 2023، تم تحميل أكثر من 143000 مقطع فيديو حصل على أكثر من 4.2 مليار مشاهدة على 40 موقعًا إلكترونيًا الأكثر شهرة لمقاطع الفيديو المزيفة مع تضخم المواد الإباحية التي أنشأها الذكاء الاصطناعي عبر العالم.


 


ولكن مع تحسن التكنولوجيا، أصبح اكتشاف التزييف العميق أكثر صعوبة على نحو متزايد، تمنع سياسات Google ظهور الصور الجنسية غير الرضائية في نتائج البحث، ولكن لا يزال من الممكن ظهور المواد الإباحية العميقة على محركات البحث، وأنشأت بعض الشركات أدوات لمحاولة اكتشاف ما إذا كان الفيديو قد تم إنشاؤه بواسطة الذكاء الاصطناعي، لكن هذه الأدوات ليست مثالية.


 


ووجد الباحثون في معهد ماساتشوستس للتكنولوجيا أن البشر والآلات يمكنهم التعرف على الصور المزيفة بمعدل مماثل، وأن كلاهما يرتكب أخطاء عند القيام بذلك، واقترح هؤلاء الباحثون أن يولي البشر اهتمامًا وثيقًا لوجوه الأشخاص في الصور ومقاطع الفيديو التي يعتقدون أنها قد تكون مزيفة، بما في ذلك نظارات الفرد وشعر الوجه ومعدل الوميض، والتي قد تبدو جميعها غير طبيعية.


 

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *