عمليات الاحتيال باستخدام Deepfake للفيديو في الوقت الفعلي موجودة هنا. تحاول هذه الأداة استهدافهم


هذا الإعلان ليس المرة الأولى التي تشارك فيها شركة تقنية خططًا للمساعدة في اكتشاف التزييف العميق في الوقت الفعلي. في عام 2022، أطلقت شركة إنتل لأول مرة أداة FakeCatcher الخاصة بها للكشف عن التزييف العميق. تم تصميم FakeCatcher لتحليل التغيرات في تدفق الدم في الوجه لتحديد ما إذا كان المشارك في الفيديو حقيقيًا. أداة Intel ليست متاحة للعامة أيضًا.

يبحث الباحثون الأكاديميون أيضًا في طرق مختلفة لمعالجة هذا النوع المحدد من تهديدات التزييف العميق. “أصبحت هذه الأنظمة متطورة جدًا بحيث يمكنها إنشاء صور مزيفة عميقة. يقول جوفيند ميتال، مرشح دكتوراه في علوم الكمبيوتر بجامعة نيويورك: “نحن بحاجة إلى بيانات أقل الآن”. “إذا كان لدي 10 صور لي على إنستغرام، يمكن لأي شخص أن يأخذها. يمكنهم استهداف الأشخاص العاديين”.

لم تعد تقنية التزييف العميق في الوقت الفعلي مقتصرة على المليارديرات أو الشخصيات العامة أو أولئك الذين لديهم تواجد واسع النطاق عبر الإنترنت. يقترح البحث الذي أجراه ميتال في جامعة نيويورك، مع الأستاذين شينماي هيغدي وناصر ميمون، نهجًا محتملاً قائمًا على التحدي لمنع روبوتات الذكاء الاصطناعي من مكالمات الفيديو، حيث يتعين على المشاركين اجتياز نوع من اختبار CAPTCHA للفيديو قبل الانضمام.

بينما تعمل شركة Reality Defender على تحسين دقة الكشف عن نماذجها، يقول كولمان إن الوصول إلى المزيد من البيانات يمثل تحديًا بالغ الأهمية يجب التغلب عليه – وهو امتناع شائع عن الدفعة الحالية من الشركات الناشئة التي تركز على الذكاء الاصطناعي. إنه يأمل أن تسد المزيد من الشراكات هذه الفجوات، وبدون تفاصيل، يلمح إلى صفقات جديدة متعددة من المحتمل أن تأتي في العام المقبل. بعد أن تم ربط ElevenLabs بمكالمة صوتية مزيفة للغاية للرئيس الأمريكي جو بايدن، أبرمت الشركة الناشئة العاملة بالذكاء الاصطناعي صفقة مع Reality Defender للتخفيف من سوء الاستخدام المحتمل.

ما الذي يمكنك فعله الآن لحماية نفسك من عمليات الاحتيال في مكالمات الفيديو؟ تمامًا مثل نصيحة WIRED الأساسية حول تجنب الاحتيال من خلال المكالمات الصوتية التي تعمل بتقنية الذكاء الاصطناعي، فإن عدم الشعور بالغرور بشأن ما إذا كان بإمكانك اكتشاف مقاطع الفيديو العميقة أمر بالغ الأهمية لتجنب التعرض للاحتيال. تستمر التكنولوجيا في هذا المجال في التطور بسرعة، وأي علامات واضحة تعتمد عليها الآن لاكتشاف التزييف العميق للذكاء الاصطناعي قد لا يمكن الاعتماد عليها مع الترقيات التالية للنماذج الأساسية.

يقول كولمان: “نحن لا نطلب من والدتي البالغة من العمر 80 عامًا الإبلاغ عن برامج الفدية في رسالة بريد إلكتروني”. “لأنها ليست خبيرة في علوم الكمبيوتر.” في المستقبل، من الممكن أن يتم اعتبار مصادقة الفيديو في الوقت الفعلي، إذا استمر اكتشاف الذكاء الاصطناعي في التحسن وأظهر أنه دقيق بشكل موثوق، أمرًا مفروغًا منه مثل ماسح البرامج الضارة الذي يطن بهدوء في خلفية صندوق بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *