يقوم مترو أنفاق لندن باختبار أدوات المراقبة بالذكاء الاصطناعي في الوقت الفعلي لاكتشاف الجريمة


ردًا على طلب حرية المعلومات الذي تقدمت به WIRED، تقول TfL إنها استخدمت صور الدوائر التلفزيونية المغلقة الموجودة، وخوارزميات الذكاء الاصطناعي، و”نماذج اكتشاف عديدة” للكشف عن أنماط السلوك. يقول الرد: “من خلال تزويد موظفي المحطة بالرؤى والإشعارات حول حركة العملاء وسلوكهم، نأمل أن يتمكنوا من الاستجابة لأي مواقف بسرعة أكبر”. وتقول أيضًا إن التجربة قدمت نظرة ثاقبة حول التهرب من دفع الأجرة والتي “ستساعدنا في أساليبنا وتدخلاتنا المستقبلية”، وأن البيانات التي تم جمعها تتماشى مع سياسات البيانات الخاصة بها.

في بيان أُرسل بعد نشر هذا المقال، قالت ماندي ماكجريجور، رئيسة السياسة وسلامة المجتمع في TfL، إن نتائج التجربة لا تزال قيد التحليل، وأضافت: “لم يكن هناك دليل على التحيز” في البيانات التي تم جمعها من التجربة. يقول ماكجريجور إنه خلال المحاكمة، لم تكن هناك أي لافتات في المحطة تشير إلى اختبارات أدوات المراقبة التي تعمل بالذكاء الاصطناعي.

“نحن ندرس حاليًا تصميم ونطاق المرحلة الثانية من التجربة. ولم يتم اتخاذ أي قرارات أخرى بشأن توسيع استخدام هذه التكنولوجيا سواء لمزيد من المحطات أو لإضافة القدرة. يقول ماكجريجور. “إن أي نشر لهذه التكنولوجيا على نطاق أوسع بعد الإصدار التجريبي سيعتمد على التشاور الكامل مع المجتمعات المحلية وأصحاب المصلحة الآخرين ذوي الصلة، بما في ذلك الخبراء في هذا المجال.”

أنظمة رؤية الكمبيوتر, مثل تلك المستخدمة في الاختبار، تعمل من خلال محاولة اكتشاف الأشياء والأشخاص في الصور ومقاطع الفيديو. خلال تجربة لندن، تم دمج الخوارزميات المدربة للكشف عن سلوكيات أو حركات معينة مع صور من كاميرات CCTV الموجودة في محطة مترو الأنفاق والتي يبلغ عمرها 20 عامًا، حيث يتم تحليل الصور كل عُشر ثانية. عندما يكتشف النظام واحدًا من 11 سلوكًا أو حدثًا تم تحديده على أنه يمثل مشكلة، فإنه يصدر تنبيهًا إلى أجهزة iPad أو جهاز الكمبيوتر الخاص بموظفي المحطة. وتقول الوثائق إن موظفي TfL تلقوا 19000 تنبيهًا للعمل المحتمل، وتم الاحتفاظ بـ 25000 تنبيهًا آخر لأغراض التحليل.

الفئات التي حاول النظام تحديدها هي: حركة الحشود، والوصول غير المصرح به، والحماية، والمساعدة في التنقل، والجريمة والسلوك المعادي للمجتمع، والأشخاص على المسارات، والأشخاص المصابين أو المرضى، والمخاطر مثل القمامة أو الأرضيات الرطبة، والأشياء غير المراقبة، والعملاء الذين تقطعت بهم السبل، و التهرب من الأجرة. لكل منها فئات فرعية متعددة.

يقول دانيال لوفر، أحد كبار محللي السياسات في مجموعة الحقوق الرقمية Access Now، عندما يرى أي نظام يقوم بهذا النوع من المراقبة، فإن أول شيء يبحث عنه هو ما إذا كان يحاول اكتشاف العدوان أو الجريمة. ويقول: “ستقوم الكاميرات بذلك من خلال تحديد لغة الجسد والسلوك”. “ما نوع مجموعة البيانات التي سيتعين عليك تدريبها على ذلك؟”

يقول تقرير TfL عن المحاكمة إنها “أرادت تضمين أعمال العدوان” لكنها وجدت أنها “غير قادرة على اكتشافها بنجاح”. ويضيف أنه كان هناك نقص في بيانات التدريب، وتم حجب الأسباب الأخرى لعدم تضمين أعمال العدوان. وبدلاً من ذلك، أصدر النظام تنبيهًا عندما رفع شخص ما ذراعيه، وهو ما تم وصفه في الوثائق بأنه “سلوك شائع مرتبط بأعمال عدوانية”.

يقول لوفر: “بيانات التدريب غير كافية دائمًا لأنه يمكن القول إن هذه الأشياء معقدة للغاية ودقيقة للغاية بحيث لا يمكن التقاطها بشكل صحيح في مجموعات البيانات مع الفروق الدقيقة اللازمة”، مشيرًا إلى أنه من الإيجابي أن تعترف هيئة النقل في لندن بأنها لا تملك بيانات تدريب كافية. “أنا متشكك للغاية بشأن ما إذا كان من الممكن استخدام أنظمة التعلم الآلي للكشف بشكل موثوق عن العدوان بطريقة لا تكرر ببساطة التحيزات المجتمعية الحالية حول نوع السلوك المقبول في الأماكن العامة.” كان هناك إجمالي 66 تنبيهًا للسلوك العدواني، بما في ذلك بيانات الاختبار، وفقًا للوثائق التي تلقتها WIRED.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *