حملات التأثير الأجنبي لا تعرف كيفية استخدام الذكاء الاصطناعي حتى الآن


أصدرت OpenAI اليوم تقريرها الأول عن التهديدات، والذي يوضح بالتفصيل كيف حاولت جهات فاعلة من روسيا وإيران والصين وإسرائيل استخدام تقنيتها في عمليات التأثير الأجنبي في جميع أنحاء العالم. حدد التقرير خمس شبكات مختلفة حددتها شركة OpenAI وأغلقتها بين عامي 2023 و2024. وفي التقرير، تكشف OpenAI أن الشبكات القائمة مثل Doppleganger الروسية وSpamoflauge الصينية تقوم بتجربة كيفية استخدام الذكاء الاصطناعي التوليدي لأتمتة عملياتها. كما أنهم ليسوا جيدين في ذلك.

وعلى الرغم من أنه من المريح أن هؤلاء الممثلين لم يتقنوا الذكاء الاصطناعي التوليدي ليصبحوا قوى لا يمكن إيقافها للتضليل، فمن الواضح أنهم يقومون بالتجارب، وهذا وحده يجب أن يكون مثيرًا للقلق.

يكشف تقرير OpenAI أن حملات التأثير تتعارض مع حدود الذكاء الاصطناعي التوليدي، الذي لا ينتج نسخة أو كودًا جيدًا بشكل موثوق. إنها تكافح مع التعابير الاصطلاحية – التي تجعل اللغة تبدو أكثر إنسانية وشخصية بشكل أكثر موثوقية – وأيضًا في بعض الأحيان مع القواعد الأساسية (لدرجة أن OpenAI أطلقت على إحدى الشبكات اسم “Bad Grammar”.) كانت شبكة Bad Grammar غير متقنة للغاية لدرجة أنها كشفت ذات مرة عن هويتها الحقيقية. : “بصفتي نموذجًا للغة الذكاء الاصطناعي، أنا هنا للمساعدة وتقديم التعليق المطلوب”.

استخدمت إحدى الشبكات ChatGPT لتصحيح التعليمات البرمجية التي من شأنها أن تسمح لها بأتمتة المنشورات على Telegram، وهو تطبيق الدردشة الذي كان منذ فترة طويلة المفضل لدى المتطرفين وشبكات التأثير. لقد نجح هذا الأمر بشكل جيد في بعض الأحيان، لكنه أدى في أحيان أخرى إلى نشر نفس الحساب كشخصيتين منفصلتين، مما أدى إلى الكشف عن اللعبة.

وفي حالات أخرى، تم استخدام ChatGPT لإنشاء تعليمات برمجية ومحتوى لمواقع الويب ووسائل التواصل الاجتماعي. على سبيل المثال، استخدم Spamoflauge ChatGPT لتصحيح الأخطاء البرمجية لإنشاء موقع WordPress ينشر قصصًا تهاجم أعضاء الشتات الصيني الذين انتقدوا حكومة البلاد.

وفقًا للتقرير، لم يتمكن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي من الخروج من شبكات التأثير نفسها إلى التيار الرئيسي، حتى عند مشاركتها على منصات مستخدمة على نطاق واسع مثل X أو Facebook أو Instagram. كان هذا هو الحال بالنسبة للحملات التي تديرها شركة إسرائيلية يبدو أنها تعمل على أساس مأجور، وتنشر محتوى يتراوح بين مناهضة قطر ومناهضة لحزب بهاراتيا جاناتا، الحزب القومي الهندوسي الذي يسيطر حاليًا على الحكومة الهندية.

في المجمل، يرسم التقرير صورة للعديد من الحملات غير الفعالة نسبيًا ذات الدعاية الفظة، مما يهدئ على ما يبدو المخاوف التي كانت لدى العديد من الخبراء بشأن إمكانية قيام هذه التكنولوجيا الجديدة بنشر المعلومات الخاطئة والمضللة، خاصة خلال عام انتخابي حاسم.

لكن حملات التأثير على وسائل التواصل الاجتماعي غالبًا ما تبتكر بمرور الوقت لتجنب اكتشافها، وتعلم المنصات وأدواتها، وأحيانًا أفضل من موظفي المنصات أنفسهم. في حين أن هذه الحملات الأولية قد تكون صغيرة أو غير فعالة، إلا أنها تبدو أنها لا تزال في المرحلة التجريبية، كما تقول جيسيكا والتون، الباحثة في معهد CyberPeace والتي درست استخدام Doppleganger للذكاء الاصطناعي التوليدي.

في بحثها، تستخدم الشبكة ملفات شخصية تبدو حقيقية على فيسبوك لنشر مقالات، غالبًا ما تكون حول مواضيع سياسية مثيرة للخلاف. وتقول: “المقالات الفعلية كتبها الذكاء الاصطناعي التوليدي”. “وما يحاولون فعله في الغالب هو رؤية ما سيطير، وما الذي ستستطيع خوارزميات ميتا التقاطه وما لن تتمكن من التقاطه.”

وبعبارة أخرى، توقع منهم أن يتحسنوا من هنا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *