هنا تأتي ديدان الذكاء الاصطناعي


ومع ازدياد تقدم أنظمة الذكاء الاصطناعي التوليدية مثل ChatGPT من OpenAI وGemini من Google، يتم تشغيلها بشكل متزايد. تقوم الشركات الناشئة وشركات التكنولوجيا ببناء وكلاء وأنظمة بيئية تعمل بالذكاء الاصطناعي فوق الأنظمة التي يمكنها إكمال المهام المملة نيابةً عنك: فكر في إجراء حجوزات التقويم تلقائيًا واحتمال شراء المنتجات. ولكن مع منح الأدوات المزيد من الحرية، فإنها تزيد أيضًا من الطرق المحتملة للهجوم عليها.

الآن، وفي عرض لمخاطر النظم البيئية المتصلة والمستقلة للذكاء الاصطناعي، قامت مجموعة من الباحثين بإنشاء واحدة مما يزعمون أنها أول ديدان الذكاء الاصطناعي التوليدية – والتي يمكن أن تنتشر من نظام إلى آخر، ومن المحتمل أن تسرق البيانات أو تنشر برامج ضارة في عملية. يقول بن ناسي، الباحث في جامعة كورنيل والذي يقف وراء هذا البحث: “هذا يعني في الأساس أن لديك الآن القدرة على تنفيذ أو تنفيذ نوع جديد من الهجمات الإلكترونية التي لم يسبق لها مثيل”.

قام ناسي، مع زملائه الباحثين ستاف كوهين ورون بيتون، بإنشاء الدودة، التي أطلق عليها اسم موريس 2، كإشارة إلى دودة موريس الحاسوبية الأصلية التي تسببت في الفوضى عبر الإنترنت في عام 1988. في ورقة بحثية وموقع تمت مشاركته حصريًا مع WIRED، يوضح الباحثون كيف يمكن لدودة الذكاء الاصطناعي مهاجمة مساعد بريد إلكتروني مبتكر يعمل بالذكاء الاصطناعي لسرقة البيانات من رسائل البريد الإلكتروني وإرسال رسائل غير مرغوب فيها، مما يؤدي إلى كسر بعض وسائل الحماية الأمنية في ChatGPT وGemini في هذه العملية.

يأتي هذا البحث، الذي تم إجراؤه في بيئات اختبار وليس ضد مساعد بريد إلكتروني متاح للعامة، في الوقت الذي أصبحت فيه نماذج اللغات الكبيرة (LLMs) متعددة الوسائط بشكل متزايد، حيث أصبحت قادرة على إنشاء الصور والفيديو بالإضافة إلى النصوص. على الرغم من أنه لم يتم رصد ديدان الذكاء الاصطناعي المنتجة في البرية بعد، إلا أن العديد من الباحثين يقولون إنها تشكل خطرًا أمنيًا يجب على الشركات الناشئة والمطورين وشركات التكنولوجيا القلق بشأنها.

تعمل معظم أنظمة الذكاء الاصطناعي الإنتاجية من خلال تغذيتها بالمطالبات، وهي تعليمات نصية تخبر الأدوات بالإجابة على سؤال أو إنشاء صورة. ومع ذلك، يمكن أيضًا استخدام هذه المطالبات كسلاح ضد النظام. يمكن أن تؤدي عمليات كسر الحماية إلى جعل النظام يتجاهل قواعد السلامة الخاصة به وينشر محتوى سامًا أو يحض على الكراهية، في حين أن هجمات الحقن الفوري يمكن أن تعطي تعليمات سرية لروبوت الدردشة. على سبيل المثال، قد يقوم أحد المهاجمين بإخفاء نص على صفحة ويب يطلب من LLM أن يعمل كمحتال ويطلب منك تفاصيل حسابك المصرفي.

لإنشاء دودة الذكاء الاصطناعي التوليدية، لجأ الباحثون إلى ما يسمى بـ “محفز التكاثر الذاتي العدائي”. يقول الباحثون إن هذا هو المحفز الذي يحفز نموذج الذكاء الاصطناعي التوليدي ليخرج، في استجابته، محفزًا آخر. باختصار، يُطلب من نظام الذكاء الاصطناعي إنتاج مجموعة من التعليمات الإضافية في ردوده. ويقول الباحثون إن هذا يشبه إلى حد كبير هجمات حقن SQL التقليدية وهجمات تجاوز سعة المخزن المؤقت.

ولإظهار كيفية عمل الدودة، أنشأ الباحثون نظام بريد إلكتروني يمكنه إرسال واستقبال الرسائل باستخدام الذكاء الاصطناعي التوليدي، وربطه بـ ChatGPT، وGemini، وLLM مفتوح المصدر، LLaVA. ثم وجدوا طريقتين لاستغلال النظام — باستخدام موجه ذاتي النسخ يعتمد على النص، ومن خلال تضمين موجه ذاتي النسخ داخل ملف صورة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *