يجب على كل وكالة فيدرالية أمريكية تعيين مسؤول رئيسي للذكاء الاصطناعي


سيُطلب الآن من جميع الوكالات الفيدرالية الأمريكية أن يكون لديها قائد كبير يشرف على جميع أنظمة الذكاء الاصطناعي التي تستخدمها، حيث تريد الحكومة التأكد من أن استخدام الذكاء الاصطناعي في الخدمة العامة يظل آمنًا.

أعلنت نائبة الرئيس، كامالا هاريس، عن توجيهات مكتب الإدارة والميزانية الجديدة في مؤتمر صحفي مع الصحفيين وقالت إنه يجب على الوكالات أيضًا إنشاء مجالس إدارة الذكاء الاصطناعي لتنسيق كيفية استخدام الذكاء الاصطناعي داخل الوكالة. سيتعين على الوكالات أيضًا تقديم تقرير سنوي إلى مكتب الإدارة والميزانية (OMB) يدرج فيه جميع أنظمة الذكاء الاصطناعي التي يستخدمونها، وأي مخاطر مرتبطة بها، وكيف يخططون للتخفيف من هذه المخاطر.

“لقد وجهنا جميع الوكالات الفيدرالية لتعيين مسؤول رئيسي للذكاء الاصطناعي يتمتع بالخبرة والخبرة والسلطة للإشراف على جميع تقنيات الذكاء الاصطناعي التي تستخدمها تلك الوكالة، وذلك للتأكد من استخدام الذكاء الاصطناعي بشكل مسؤول، مع إدراك أنه يجب أن يكون لدينا قادة كبار وقال هاريس للصحفيين: “في جميع أنحاء حكومتنا، المكلفون على وجه التحديد بالإشراف على اعتماد واستخدام الذكاء الاصطناعي”.

ليس من الضروري أن يكون كبير مسؤولي الذكاء الاصطناعي معينًا سياسيًا، على الرغم من أن ذلك يعتمد على هيكل الوكالة الفيدرالية. يجب إنشاء مجالس الإدارة بحلول الصيف.

يتوسع هذا التوجيه في السياسات المعلنة مسبقًا والموضحة في الأمر التنفيذي للذكاء الاصطناعي الصادر عن إدارة بايدن، والذي يتطلب من المكاتب الفيدرالية إنشاء معايير السلامة وزيادة عدد مواهب الذكاء الاصطناعي العاملة في الحكومة.

بدأت بعض الوكالات في تعيين كبار مسؤولي الذكاء الاصطناعي حتى قبل إعلان اليوم. أعلنت وزارة العدل أن جوناثان ماير هو أول كبير مسؤولي المعلومات في شهر فبراير. وسيقود فريقًا من خبراء الأمن السيبراني لمعرفة كيفية استخدام الذكاء الاصطناعي في تطبيق القانون.

وتخطط الحكومة الأمريكية لتوظيف 100 متخصص في الذكاء الاصطناعي بحلول الصيف، وفقًا لرئيس مكتب الإدارة والميزانية شالاندا يونج.

جزء من مسؤولية مسؤولي الذكاء الاصطناعي ولجان الإدارة في الوكالات هو مراقبة أنظمة الذكاء الاصطناعي الخاصة بهم بشكل متكرر. وقال يونغ إن الوكالات يجب أن تقدم قائمة جرد لمنتجات الذكاء الاصطناعي التي تستخدمها الوكالة. إذا تم اعتبار أي من أنظمة الذكاء الاصطناعي “حساسة” بما يكفي لحذفها من القائمة، فيجب على الوكالة أن تقدم سببًا علنيًا لاستبعادها. يتعين على الوكالات أيضًا إجراء تقييم مستقل لمخاطر السلامة لكل منصة ذكاء اصطناعي تستخدمها.

يتعين على الوكالات الفيدرالية أيضًا التحقق من أن أي ذكاء اصطناعي تنشره يتوافق مع الضمانات التي “تخفف من مخاطر التمييز الخوارزمي وتزود الجمهور بالشفافية حول كيفية استخدام الحكومة للذكاء الاصطناعي”. تقدم صحيفة الحقائق الصادرة عن مكتب الإدارة والميزانية عدة أمثلة، بما في ذلك:

عندما يكون المسافرون في المطار، سيكون لديهم القدرة على إلغاء الاشتراك في استخدام تقنية التعرف على الوجه من TSA دون أي تأخير أو فقدان مكانهم في الطابور.

عندما يتم استخدام الذكاء الاصطناعي في نظام الرعاية الصحية الفيدرالي لدعم قرارات التشخيص الحاسمة، فإن الإنسان يشرف على العملية للتحقق من نتائج الأدوات وتجنب التفاوتات في الوصول إلى الرعاية الصحية.

عندما يتم استخدام الذكاء الاصطناعي للكشف عن الاحتيال في الخدمات الحكومية، تكون هناك رقابة بشرية على القرارات المؤثرة، وتتاح للأفراد المتضررين فرصة البحث عن علاج لأضرار الذكاء الاصطناعي.

وجاء في صحيفة الحقائق: “إذا لم تتمكن الوكالة من تطبيق هذه الضمانات، فيجب عليها التوقف عن استخدام نظام الذكاء الاصطناعي، ما لم تبرر قيادة الوكالة سبب زيادة المخاطر على السلامة أو الحقوق بشكل عام أو خلق عائق غير مقبول أمام عمليات الوكالة المهمة”.

وبموجب التوجيهات الجديدة، يجب نشر أي نماذج وأكواد وبيانات للذكاء الاصطناعي مملوكة للحكومة للجمهور ما لم تشكل خطراً على العمليات الحكومية.

لا تزال الولايات المتحدة ليس لديها قوانين تنظم الذكاء الاصطناعي. يوفر الأمر التنفيذي للذكاء الاصطناعي إرشادات للوكالات الحكومية التابعة للسلطة التنفيذية حول كيفية التعامل مع التكنولوجيا. في حين تم تقديم العديد من مشاريع القوانين التي تنظم بعض جوانب الذكاء الاصطناعي، لم يكن هناك الكثير من الحركة بشأن تشريع تقنيات الذكاء الاصطناعي.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *