إن حفر عناصر تحكم الذكاء الاصطناعي في السيليكون يمكن أن يمنع يوم القيامة


حتى خوارزميات الذكاء الاصطناعي الأكثر ذكاءً والأكثر دهاءً من المفترض أن تخضع لقوانين السيليكون. ستكون قدراته مقيدة بالأجهزة التي يعمل عليها.

يستكشف بعض الباحثين طرقًا لاستغلال هذا الاتصال للحد من قدرة أنظمة الذكاء الاصطناعي على التسبب في الضرر. وتتمثل الفكرة في تشفير القواعد التي تحكم التدريب ونشر الخوارزميات المتقدمة مباشرة في شرائح الكمبيوتر اللازمة لتشغيلها.

من الناحية النظرية – وهو المجال الذي يدور فيه حاليًا الكثير من الجدل حول الذكاء الاصطناعي القوي بشكل خطير – قد يوفر هذا طريقة جديدة قوية لمنع الدول المارقة أو الشركات غير المسؤولة من تطوير ذكاء اصطناعي خطير سرًا. وواحدة أصعب في التهرب منها من القوانين أو المعاهدات التقليدية. يوضح تقرير نشره مركز الأمن الأمريكي الجديد في وقت سابق من هذا الشهر، وهو مركز أبحاث مؤثر في السياسة الخارجية الأمريكية، كيف يمكن تسخير السيليكون المقيد بعناية لفرض مجموعة من ضوابط الذكاء الاصطناعي.

تتميز بعض الشرائح بالفعل بمكونات موثوقة مصممة لحماية البيانات الحساسة أو الحماية من سوء الاستخدام. على سبيل المثال، تحتفظ أحدث أجهزة iPhone بالمعلومات البيومترية للشخص في “منطقة آمنة”. تستخدم Google شريحة مخصصة في خوادمها السحابية لضمان عدم العبث بأي شيء.

تقترح الورقة تسخير ميزات مماثلة مدمجة في وحدات معالجة الرسومات – أو حفر ميزات جديدة في رقائق المستقبل – لمنع مشاريع الذكاء الاصطناعي من الوصول إلى أكثر من قدر معين من قوة الحوسبة دون ترخيص. ونظرًا للحاجة إلى قوة حاسوبية ضخمة لتدريب أقوى خوارزميات الذكاء الاصطناعي، مثل تلك التي تقف وراء ChatGPT، فإن ذلك من شأنه أن يحد من من يمكنه بناء أقوى الأنظمة.

يقول CNAS إن التراخيص يمكن إصدارها من قبل جهة تنظيمية حكومية أو دولية ويتم تحديثها بشكل دوري، مما يجعل من الممكن قطع الوصول إلى تدريب الذكاء الاصطناعي عن طريق رفض ترخيص جديد. يقول تيم فيست، وهو زميل في CNAS وواحد من ثلاثة مؤلفين: “يمكنك تصميم بروتوكولات بحيث لا يمكنك نشر نموذج إلا إذا قمت بإجراء تقييم معين وحصلت على درجة أعلى من عتبة معينة، دعنا نقول من أجل السلامة”. الورقة.

يشعر بعض الشخصيات البارزة في مجال الذكاء الاصطناعي بالقلق من أن الذكاء الاصطناعي أصبح الآن ذكيًا جدًا لدرجة أنه قد يثبت يومًا ما أنه جامح وخطير. وبشكل أكثر إلحاحاً، يشعر بعض الخبراء والحكومات بالقلق من أنه حتى نماذج الذكاء الاصطناعي الحالية يمكن أن تسهل تطوير أسلحة كيميائية أو بيولوجية أو أتمتة الجرائم السيبرانية. لقد فرضت واشنطن بالفعل سلسلة من ضوابط تصدير شرائح الذكاء الاصطناعي للحد من وصول الصين إلى الذكاء الاصطناعي الأكثر تقدمًا، خوفًا من إمكانية استخدامه لأغراض عسكرية – على الرغم من أن التهريب والهندسة الذكية قد وفرت بعض الطرق للالتفاف حولها. ورفضت شركة Nvidia التعليق، لكن الشركة خسرت طلبات بقيمة مليارات الدولارات من الصين بسبب ضوابط التصدير الأمريكية الأخيرة.

يقول Fist of CNAS إنه على الرغم من أن قيود التشفير الصارم على أجهزة الكمبيوتر قد تبدو متطرفة، إلا أن هناك سابقة في إنشاء بنية تحتية لمراقبة التكنولوجيا المهمة أو التحكم فيها وإنفاذ المعاهدات الدولية. يقول فيست من CNAS: “إذا كنت تفكر في الأمن ومنع الانتشار النووي، فإن تقنيات التحقق كانت أساسية للغاية لضمان المعاهدات”. “إن شبكة أجهزة قياس الزلازل التي لدينا الآن للكشف عن التجارب النووية تحت الأرض تدعم المعاهدات التي تنص على أننا لن نختبر أسلحة تحت الأرض أعلى من عتبة معينة بالكيلو طن.”

الأفكار التي طرحها CNAS ليست نظرية تمامًا. إن رقائق تدريب الذكاء الاصطناعي البالغة الأهمية من Nvidia – والتي تعد ضرورية لبناء أقوى نماذج الذكاء الاصطناعي – تأتي بالفعل مع وحدات تشفير آمنة. وفي نوفمبر 2023، أنشأ الباحثون في معهد مستقبل الحياة، وهي منظمة غير ربحية مكرسة لحماية البشرية من التهديدات الوجودية، وشركة Mithril Security، وهي شركة أمنية ناشئة، عرضًا توضيحيًا يوضح كيف يمكن استخدام وحدة الأمان الخاصة بوحدة المعالجة المركزية Intel في عملية تشفير. مخطط يمكنه تقييد الاستخدام غير المصرح به لنموذج الذكاء الاصطناعي.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *