تريد حكومة الولايات المتحدة منكم – نعم، أنتم – أن تقوموا بمطاردة عيوب الذكاء الاصطناعي التوليدية


في مؤتمر Defcon hacker لعام 2023 في لاس فيغاس، تعاونت شركات تكنولوجيا الذكاء الاصطناعي البارزة مع مجموعات النزاهة والشفافية الخوارزمية لاستقطاب آلاف الحاضرين على منصات الذكاء الاصطناعي التوليدية والعثور على نقاط الضعف في هذه الأنظمة المهمة. وقد اتخذ تمرين “الفريق الأحمر”، والذي حظي أيضًا بدعم من حكومة الولايات المتحدة، خطوة نحو فتح هذه الأنظمة ذات التأثير المتزايد والمبهمة للتدقيق. الآن، تقوم منظمة Humane Intelligence غير الربحية للتقييم الأخلاقي والخوارزمي بأخذ هذا النموذج خطوة أخرى إلى الأمام. وفي يوم الأربعاء، أعلنت المجموعة عن دعوة للمشاركة مع المعهد الوطني الأمريكي للمعايير والتكنولوجيا، ودعت أي مقيم في الولايات المتحدة للمشاركة في الجولة التأهيلية لجهود الفريق الأحمر على مستوى البلاد لتقييم برامج إنتاجية مكاتب الذكاء الاصطناعي.

سيتم إجراء التصفيات عبر الإنترنت وهي مفتوحة لكل من المطورين وأي شخص من عامة الناس كجزء من تحديات الذكاء الاصطناعي الخاصة بـ NIST، والمعروفة باسم تقييم مخاطر وتأثيرات الذكاء الاصطناعي، أو ARIA. سيشارك المشاركون الذين اجتازوا الجولة التأهيلية في حدث الفريق الأحمر الشخصي في نهاية شهر أكتوبر في مؤتمر التعلم الآلي التطبيقي في أمن المعلومات (CAMLIS) في فيرجينيا. الهدف هو توسيع القدرات لإجراء اختبارات صارمة لأمن ومرونة وأخلاقيات تقنيات الذكاء الاصطناعي التوليدية.

يقول ثيو سكيداس، الرئيس التنفيذي لمجموعة Tech Policy Consulting لحوكمة الذكاء الاصطناعي والسلامة عبر الإنترنت، التي تعمل مع منظمة Humane: “إن الشخص العادي الذي يستخدم أحد هذه النماذج لا يملك حقًا القدرة على تحديد ما إذا كان النموذج مناسبًا للغرض أم لا”. ذكاء. “لذلك نريد إضفاء الطابع الديمقراطي على القدرة على إجراء التقييمات والتأكد من أن كل شخص يستخدم هذه النماذج يمكنه التقييم بنفسه ما إذا كان النموذج يلبي احتياجاته أم لا.”

سيقسم الحدث الأخير في CAMLIS المشاركين إلى فريق أحمر يحاول مهاجمة أنظمة الذكاء الاصطناعي وفريق أزرق يعمل على الدفاع. سيستخدم المشاركون إطار إدارة مخاطر الذكاء الاصطناعي الخاص بـ NIST، والمعروف باسم AI 600-1، كمعيار لقياس ما إذا كان الفريق الأحمر قادرًا على تحقيق نتائج تنتهك السلوك المتوقع للأنظمة.

يقول رمان شودري، مؤسس شركة Humane Intelligence، وهو أيضًا مقاول في مكتب NIST للتقنيات الناشئة وعضو في وزارة الأمن الداخلي الأمريكية: “تعتمد ARIA الخاصة بـ NIST على تعليقات المستخدمين المنظمة لفهم تطبيقات العالم الحقيقي لنماذج الذكاء الاصطناعي”. ومجلس الأمن. “يتكون فريق ARIA في الغالب من خبراء في الاختبارات والتقييم الاجتماعي التقني، و [is] باستخدام هذه الخلفية كوسيلة لتطوير المجال نحو التقييم العلمي الدقيق للذكاء الاصطناعي التوليدي.

يقول تشودري وسكيداس إن شراكة NIST هي مجرد واحدة من سلسلة تعاونات الفريق الأحمر للذكاء الاصطناعي التي ستعلن عنها منظمة Humane Intelligence في الأسابيع المقبلة مع الوكالات الحكومية الأمريكية والحكومات الدولية والمنظمات غير الحكومية. يهدف هذا الجهد إلى جعل الأمر أكثر شيوعًا بالنسبة للشركات والمنظمات التي تطور ما يُعرف الآن بخوارزميات الصندوق الأسود لتوفير الشفافية والمساءلة من خلال آليات مثل “تحديات التحيز”، حيث يمكن مكافأة الأفراد على اكتشاف المشكلات وعدم المساواة في نماذج الذكاء الاصطناعي. .

يقول سكيداس: “يجب أن يكون المجتمع أوسع من المبرمجين”. “يجب أن يشارك صناع السياسات والصحفيون والمجتمع المدني والأشخاص غير التقنيين في عملية اختبار وتقييم هذه الأنظمة. ونحن بحاجة إلى التأكد من أن المجموعات الأقل تمثيلاً مثل الأفراد الذين يتحدثون لغات الأقليات أو الذين ينتمون إلى ثقافات ووجهات نظر غير الأغلبية، قادرون على المشاركة في هذه العملية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *