Meta لتسمية الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي على Facebook وInstagram وThreads


ستبدأ Meta في تصنيف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تم تحميلها على Facebook وInstagram وThreads خلال الأشهر المقبلة مع تزايد موسم الانتخابات في جميع أنحاء العالم. وستبدأ الشركة أيضًا في معاقبة المستخدمين الذين لا يكشفون عما إذا كان قد تم إنشاء مقطع فيديو أو مقطع صوتي واقعي باستخدام الذكاء الاصطناعي.

وقال نيك كليج، رئيس الشؤون العالمية في شركة ميتا، في مقابلة، إن هذه الخطوات تهدف إلى “تحفيز” صناعة التكنولوجيا حيث أصبح من الصعب على نحو متزايد تمييز الوسائط التي يولدها الذكاء الاصطناعي عن الواقع. لقد ضغط البيت الأبيض بشدة على الشركات لوضع علامة مائية على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. في غضون ذلك، تقوم ميتا ببناء أدوات للكشف عن الوسائط الاصطناعية حتى لو تم تعديل بياناتها الوصفية لإخفاء دور الذكاء الاصطناعي في إنشائها، وفقًا لكليج.

تقوم Meta بالفعل بتطبيق العلامة المائية “Imagined with AI” على الصور التي تم إنشاؤها باستخدام منشئ Imagine AI الخاص بها، وستبدأ الشركة في فعل الشيء نفسه مع الصور التي تم إنشاؤها باستخدام الذكاء الاصطناعي والتي تم إنشاؤها باستخدام أدوات من Google وOpenAI وMicrosoft وAdobe وMidjourney وShutterstock. وقال كليج إن الصناعة متأخرة كثيرًا في بناء معايير لتحديد الفيديو والصوت الناتج عن الذكاء الاصطناعي. وأنه في حين أن شركة Meta في حالة تأهب قصوى بشأن كيفية استخدام هذه الوسائط للخداع، فإن الشركة لن تكون قادرة على اكتشاف كل شيء بمفردها.

وقال: “بالنسبة لأولئك الذين يشعرون بالقلق بشأن الفيديو والمحتوى الصوتي المصمم لخداع الجمهور ماديًا بشأن مسألة ذات أهمية سياسية في الفترة التي تسبق الانتخابات، سنكون يقظين جدًا”. “هل أعتقد أن هناك احتمالًا لحدوث شيء ما، بغض النظر عن سرعة اكتشافه أو تصنيفه بسرعة، ومع ذلك فإننا متهمون بطريقة ما بإسقاط الكرة؟ نعم، أعتقد أن هذا ممكن، إن لم يكن مرجحا”.

مثال على صورة AI ذات علامة مائية تم إنشاؤها باستخدام أداة Meta المجانية.
الحافة

وقال كليج إن Meta ستبدأ قريبًا في مطالبة مستخدميها بالكشف عن وقت إنشاء منشورات فيديو أو صوت واقعية باستخدام الذكاء الاصطناعي. وأضاف أنه إذا لم يفعلوا ذلك، فإن “مجموعة العقوبات التي سيتم تطبيقها ستشمل سلسلة كاملة من التحذيرات وحتى الإزالة” للمنشور المخالف.

هناك بالفعل الكثير من الأمثلة على المشاركات الفيروسية التي أنشأها الذكاء الاصطناعي للسياسيين، لكن كليج قلل من فرص اجتياح الظاهرة لمنصة ميتا في عام الانتخابات. وقال: “أعتقد أنه من غير المرجح حقًا أن تحصل على مقطع فيديو أو مقطع صوتي مركب بالكامل وله أهمية سياسية كبيرة جدًا ولا يمكننا رؤيته بسرعة كبيرة”. “لا أعتقد أن هذه هي الطريقة التي ستسير بها الأمور.”

وقال إن ميتا بدأت أيضًا في اختبار داخليًا لاستخدام نماذج اللغة الكبيرة (LLMs) المدربة على معايير المجتمع الخاصة بها، واصفًا إياها بأنها “آلية فرز” فعالة لعشرات الآلاف من المشرفين البشريين. “يبدو أنها طريقة فعالة للغاية ودقيقة إلى حد ما لضمان أن ما يتم تصعيده إلى المراجعين البشريين لدينا هو في الواقع نوع من الحالات المتطرفة التي تريد الحكم البشري عليها.”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *