بعض الناس في الواقع يحبون التزييف العميق
قبل شهر، قدمت شركة الاستشارات Accenture إلى عميل محتمل عرضًا غير عادي وملفت للانتباه لمشروع جديد. بدلاً من مجموعة الشرائح المعتادة، شاهد العميل صورًا مزيفة للعديد من الموظفين الحقيقيين يقفون على مسرح افتراضي، ويقدمون أوصافًا مثالية للمشروع الذي كانوا يأملون في العمل عليه.
يقول ريناتو سكاف، أحد كبار المديرين الإداريين في شركة أكسنتشر والذي جاء بهذه الفكرة: “أردت منهم أن يلتقوا بفريقنا”. “إنها أيضًا وسيلة بالنسبة لنا لتمييز أنفسنا عن المنافسة.”
تم إنشاء التزييف العميق – بموافقة الموظفين – بواسطة Touchcast، وهي شركة استثمرت فيها شركة Accenture والتي توفر منصة للعروض التقديمية التفاعلية التي تحتوي على صور رمزية لأشخاص حقيقيين أو اصطناعيين. يمكن للصور الرمزية الخاصة بـ Touchcast الرد على الأسئلة المكتوبة أو المنطوقة باستخدام نماذج الذكاء الاصطناعي التي تحلل المعلومات ذات الصلة وتولد إجابات سريعة.
يقول سكاف عن موظفيه الذين يعملون في مجال التزييف العميق: “هناك عنصر مخيف”. “ولكن هناك عنصرًا أكبر من الهدوء.”
تُعد تقنية Deepfakes سلاحًا قويًا وخطيرًا للتضليل والإضرار بالسمعة. ولكن يتم اعتماد هذه التكنولوجيا نفسها من قبل الشركات التي تعتبرها بدلاً من ذلك طريقة جديدة ذكية وجذابة للوصول إلى العملاء والتفاعل معهم.
ولا تقتصر هذه التجارب على قطاع الشركات. ابتكرت مونيكا آريس، المديرة التنفيذية لمختبر الابتكار والتعليم الرقمي والتحليلات في كلية إمبريال كوليدج للأعمال في لندن، صورًا مزيفة لأساتذة حقيقيين وتأمل أن تكون وسيلة أكثر جاذبية وفعالية للإجابة على أسئلة الطلاب واستفساراتهم خارج نطاق العالم. قاعة الدراسة. يقول آريس إن التكنولوجيا لديها القدرة على زيادة التخصيص، وتوفير طرق جديدة لإدارة وتقييم الطلاب، وتعزيز مشاركة الطلاب. وتقول: “لا يزال لديك مظهر الإنسان الذي يتحدث إليك، لذلك يبدو الأمر طبيعيًا جدًا”.
وكما هو الحال غالبًا هذه الأيام، علينا أن نشكر الذكاء الاصطناعي على كشف الواقع. لقد كان من الممكن لاستوديوهات هوليوود منذ فترة طويلة أن تنسخ أصوات الممثلين ووجوههم وسلوكياتهم باستخدام البرامج، ولكن في السنوات الأخيرة جعل الذكاء الاصطناعي تكنولوجيا مماثلة متاحة على نطاق واسع ومجانية تقريبًا. إلى جانب Touchcast، تقدم الشركات بما في ذلك Synthesia وHeyGen للشركات طريقة لإنشاء صور رمزية لأفراد حقيقيين أو مزيفين للعروض التقديمية والتسويق وخدمة العملاء.
يعتقد إيدو سيجال، المؤسس والرئيس التنفيذي لشركة Touchcast، أن الصور الرمزية الرقمية يمكن أن تكون طريقة جديدة لتقديم المحتوى والتفاعل معه. قامت شركته بتطوير منصة برمجية تسمى Genything والتي ستسمح لأي شخص بإنشاء توأم رقمي خاص به.
وفي الوقت نفسه، أصبحت التزييف العميق مصدر قلق كبير مع اقتراب الانتخابات في العديد من البلدان، بما في ذلك الولايات المتحدة. في الشهر الماضي، تم استخدام المكالمات الآلية التي أنشأها الذكاء الاصطناعي والتي تظهر جو بايدن المزيف لنشر معلومات مضللة عن الانتخابات. كما أصبحت تايلور سويفت مؤخرًا هدفًا للإباحية العميقة التي تم إنشاؤها باستخدام أدوات صور الذكاء الاصطناعي المتاحة على نطاق واسع.
قال بن بوكانان، المستشار الخاص للبيت الأبيض لشؤون الذكاء الاصطناعي، لمجلة WIRED في مقابلة أجريت معه مؤخرًا: “إن الصور المزيفة هي بالتأكيد شيء نجده مثيرًا للقلق والانزعاج”. وقال إن التزييف العميق لـ Swift “يعد نقطة بيانات رئيسية في اتجاه أوسع يؤثر بشكل غير متناسب على النساء والفتيات، اللاتي يتعرضن بشكل كبير للتحرش والإساءة عبر الإنترنت”.
ويعمل معهد سلامة الذكاء الاصطناعي الأمريكي الجديد، الذي تم إنشاؤه بموجب أمر تنفيذي صادر عن البيت الأبيض في أكتوبر الماضي، على تطوير معايير لوضع العلامات المائية على الوسائط التي ينشئها الذكاء الاصطناعي. وتعمل شركات ميتا وجوجل ومايكروسوفت وغيرها من شركات التكنولوجيا أيضًا على تطوير تكنولوجيا مصممة لاكتشاف تزوير الذكاء الاصطناعي فيما أصبح سباق تسلح عالي المخاطر.
ومع ذلك، فإن بعض الاستخدامات السياسية للزيف العميق تسلط الضوء على الإمكانات المزدوجة لهذه التكنولوجيا.
ألقى عمران خان، رئيس الوزراء الباكستاني السابق، خطابًا حاشدًا لأتباع حزبه يوم السبت الماضي على الرغم من وجوده خلف القضبان. ألقى نجم الكريكيت السابق، الذي سُجن فيما وصفه حزبه بالانقلاب العسكري، خطابه باستخدام برنامج مزيف عميق استحضر نسخة مقنعة منه وهو جالس خلف مكتب ويتحدث بكلمات لم ينطق بها أبدًا.
مع تحسن معالجة الفيديو المدعومة بالذكاء الاصطناعي وتسهيل استخدامها، من المرجح أن ينمو اهتمام الشركات والمستهلكين بالاستخدامات المشروعة للتكنولوجيا. عملاق التكنولوجيا الصيني بايدو مؤخرا طورت طريقة لمستخدمي تطبيق chatbot الخاص بها لإنشاء صور مزيفة لإرسال تحيات السنة القمرية الجديدة.
حتى بالنسبة إلى المستخدمين الأوائل، فإن احتمال إساءة الاستخدام ليس أمرًا مستبعدًا تمامًا. ويقول سكاف من شركة Accenture: “ليس هناك شك في أن الأمن يجب أن يكون له الأولوية القصوى”. “بمجرد أن يكون لديك توأم اصطناعي، يمكنك جعله يفعل ويقول أي شيء.”