سوف تقوم Meta باتخاذ إجراءات صارمة ضد المنتجات المزيفة التي ينتجها الذكاء الاصطناعي، ولكنها ستترك الكثير منها دون أن يتم اكتشافها


أمضت شركة ميتا، مثل غيرها من شركات التكنولوجيا الرائدة، العام الماضي في الوعود بتسريع نشر الذكاء الاصطناعي التوليدي. واليوم أقرت بأنه يجب عليها أيضًا الاستجابة لمخاطر التكنولوجيا، معلنة عن سياسة موسعة لوضع علامات تحذيرية على الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والمنشورة على فيسبوك، وإنستغرام، وثريدس، لإعلام الناس بأصولها الاصطناعية.

ومع ذلك، فمن غير المرجح أن تغطي السياسة الجديدة الكثير من الوسائط الاصطناعية التي من المرجح أن تظهر على منصات ميتا، مما يترك العديد من الثغرات التي يمكن أن تتسلل من خلالها الجهات الفاعلة الخبيثة. يقول سام جريجوري، مدير برنامج منظمة ويتنس غير الربحية، التي تساعد الناس على استخدام التكنولوجيا لدعم حقوق الإنسان: “إنها خطوة في الاتجاه الصحيح، ولكن مع وجود تحديات”.

تقوم شركة Meta بالفعل بتصنيف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تم إنشاؤها باستخدام أدوات الذكاء الاصطناعي التوليدية الخاصة بها باستخدام علامة “Imagined with AI”، وذلك جزئيًا من خلال البحث عن “العلامة المائية” الرقمية التي تدمجها خوارزمياتها في مخرجاتها. وتقول شركة Now Meta إنها ستقوم في الأشهر المقبلة أيضًا بتسمية صور الذكاء الاصطناعي المصنوعة باستخدام الأدوات التي تقدمها شركات أخرى والتي تدمج العلامات المائية في تقنياتها.

من المفترض أن تقلل هذه السياسة من خطر نشر المعلومات الخاطئة أو المضللة من خلال الصور التي ينشئها الذكاء الاصطناعي والتي يتم تمريرها على أنها صور. ولكن على الرغم من أن شركة ميتا قالت إنها تعمل على دعم تكنولوجيا الإفصاح قيد التطوير في جوجل، وأوبن إيه آي، ومايكروسوفت، وأدوبي، وميدجورني، وشاترستوك، إلا أن هذه التكنولوجيا لم يتم نشرها على نطاق واسع بعد. وتتوفر العديد من أدوات إنشاء الصور المستندة إلى الذكاء الاصطناعي والتي لا تضع علامة مائية على مخرجاتها، مع تزايد سهولة الوصول إلى التكنولوجيا وتعديلها. يقول جريجوري: “الطريقة الوحيدة التي سيكون بها نظام كهذا فعالًا هي مشاركة مجموعة واسعة من الأدوات والمنصات التوليدية”.

حتى لو كان هناك دعم واسع النطاق للعلامة المائية، فمن غير الواضح مدى قوة الحماية التي تقدمها. لا يوجد معيار منتشر عالميًا، لكن التحالف من أجل مصدر المحتوى والأصالة (C2PA)، وهي مبادرة أسستها شركة Adobe، ساعدت الشركات على البدء في مواءمة عملها وفقًا لهذا المفهوم. لكن التكنولوجيا التي تم تطويرها حتى الآن ليست مضمونة. وفي دراسة صدرت العام الماضي، وجد الباحثون أنه يمكنهم بسهولة كسر العلامات المائية، أو إضافتها إلى الصور التي لم يتم إنشاؤها بواسطة الذكاء الاصطناعي لجعلها تبدو وكأنها تمتلكها.

ثغرة ضارة

يقول هاني فريد، الأستاذ في كلية المعلومات بجامعة كاليفورنيا في بيركلي والذي قدم المشورة لمبادرة C2PA، إن أي شخص مهتم باستخدام الذكاء الاصطناعي التوليدي بشكل ضار من المرجح أن يلجأ إلى الأدوات التي لا تضع علامة مائية على مخرجاته أو تخون طبيعته. على سبيل المثال، لم يضيف مبتكرو المكالمة الآلية المزيفة باستخدام صوت الرئيس جو بايدن الذي استهدف بعض الناخبين في نيو هامبشاير الشهر الماضي أي كشف عن أصولها.

ويعتقد أن الشركات يجب أن تكون مستعدة للجهات الفاعلة السيئة لاستهداف أي طريقة تحاول استخدامها لتحديد مصدر المحتوى. يعتقد فريد أن هناك حاجة إلى استخدام أشكال متعددة لتحديد الهوية بشكل متضافر لتحديد الصور التي ينشئها الذكاء الاصطناعي بشكل قوي، على سبيل المثال من خلال الجمع بين العلامات المائية والتكنولوجيا القائمة على التجزئة المستخدمة لإنشاء قوائم مراقبة لمواد الاعتداء الجنسي على الأطفال. وتعد العلامة المائية مفهومًا أقل تطورًا للوسائط التي يتم إنشاؤها بواسطة الذكاء الاصطناعي بخلاف الصور، مثل الصوت والفيديو.

“بينما بدأت الشركات في تضمين الإشارات في مولدات الصور الخاصة بها، فإنها لم تبدأ بعد في تضمينها في أدوات الذكاء الاصطناعي التي تولد الصوت والفيديو بنفس المقياس، لذلك لا يمكننا بعد اكتشاف تلك الإشارات وتصنيف هذا المحتوى من شركات أخرى، يعترف المتحدث باسم ميتا كيفن مكاليستر. “بينما تعمل الصناعة على تحقيق هذه الإمكانية، فإننا نضيف ميزة للأشخاص للكشف عنها عندما يشاركون الفيديو أو الصوت الناتج عن الذكاء الاصطناعي حتى نتمكن من إضافة تصنيف إليه.”

قد تساعد سياسات Meta الجديدة في اكتشاف المزيد من المحتوى المزيف، ولكن ليست كل الوسائط التي تم التلاعب بها يتم إنشاؤها بواسطة الذكاء الاصطناعي. أيد الحكم الصادر يوم الاثنين عن مجلس الرقابة التابع لشركة ميتا للخبراء المستقلين، والذي يراجع بعض دعوات الاعتدال، قرار الشركة بترك مقطع فيديو للرئيس جو بايدن تم تحريره ليبدو أنه يلمس صدر حفيدته بشكل غير لائق. لكن مجلس الإدارة قال إنه على الرغم من أن الفيديو، الذي لم يتم إنشاؤه بواسطة الذكاء الاصطناعي، لم ينتهك سياسات ميتا الحالية، إلا أنه يجب عليه مراجعة وتوسيع قواعده الخاصة بـ “الوسائط التي تم التلاعب بها” لتشمل أكثر من مجرد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.

يقول مكاليستر، المتحدث الرسمي باسم ميتا، إن الشركة “تراجع توجيهات مجلس الرقابة وسترد علنًا على توصياتهم في غضون 60 يومًا وفقًا للوائح”. يقول فريد إن الثغرة الموجودة في سياسات Meta، والتركيز الفني على الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تحمل علامة مائية، تشير إلى أن خطة الشركة لعصر الذكاء الاصطناعي العام غير مكتملة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *