ستبدأ الشرطة اليابانية في اختبار شبكة صارمة من الكاميرات الأمنية المعززة بالذكاء الاصطناعي – على أمل إيقاف الجرائم الكبرى قبل وقوعها.
وفقًا لوكالة الشرطة الوطنية اليابانية ، فإن اختبارات مراقبة ما قبل الجريمة ، التي تذكرنا بتقرير الأقلية من فيلم الخيال العلمي لعام 2002 ، ستتجنب عن قصد استخدام قدرات “التعرف على الوجه” الخاصة بالتكنولوجيا.
وبدلاً من ذلك ، ستركز كاميرات الذكاء الاصطناعي على التعرف على أنماط التعلم الآلي لثلاثة أنواع: “اكتشاف السلوك” للأنشطة المشبوهة ، و “اكتشاف الأشياء” للبنادق والأسلحة الأخرى ، و “اكتشاف التسلل” لحماية المناطق المحظورة.
قال مسؤولو الشرطة اليابانية إنهم يعتزمون إطلاق برنامج اختبار الذكاء الاصطناعي في وقت ما خلال هذه السنة المالية ، التي تنتهي في مارس 2024 في اليابان.
بينما يؤكد بعض خبراء مكافحة الإرهاب أن الكاميرات الجديدة التي تعمل بالذكاء الاصطناعي ستساعد في نشر ضباط الشرطة بشكل أكثر كفاءة ‘وتوفر’ المزيد من وسائل اليقظة ‘، يقلق آخرون من إدخال تحيزات خوارزمية خفية في عمل الشرطة.
مرعوبًا من الاغتيال المفاجئ لرئيس الوزراء الياباني شينزو آبي في العام الماضي (أعلى اليسار واليمين) ، وصدمة من محاولة فاشلة لاغتيال رئيس الوزراء الياباني الجديد فوميو كيشيدا في أبريل (أدناه) ، كافحت شرطة الأمة لمنع الجرائم البارزة.
تم القبض على رجل (في الوسط) ألقى ما يبدو أنه قنبلة دخان في ميناء واكاياما الياباني ، في أبريل الماضي. أفاد تلفزيون NHK الياباني أن انفجارا قويا وقع في ميناء غربي اليابان خلال زيارة رئيس الوزراء فوميو كيشيدا.
خوفًا من الاغتيال المفاجئ لرئيس الوزراء الياباني شينزو آبي في العام الماضي ، وصدمته من محاولة فاشلة لاغتيال رئيس الوزراء الياباني الجديد فوميو كيشيدا في أبريل / نيسان الماضي ، كافحت شرطة الأمة لمنع الجرائم البارزة ، التي غالبًا ما يرتكبها أفراد يطلقون عليهم “ الجناة المنفردين ”.
استخدمت الشرطة مصطلح “الجناة المنفردين” لوصف قطاع متنامٍ من المجتمع الياباني ، الشباب الوحيدين والساخطين ، الذين يُطلق عليهم أحيانًا اسم “أوتاكو” للإشارة إلى “المهووسين” أو “الصمت” ، والذين أثبتوا أحيانًا العنف على الرغم من عدم وجود تاريخ إجرامي معروف.
تأتي اختبارات كاميرا الذكاء الاصطناعي لوكالة الشرطة الوطنية اليابانية في الذكرى السنوية الأولى لإطلاق النار المميت على رئيس الوزراء آبي.
يقول المناصرون إن ما يسمى بخوارزمية التعلم الآلي الخاصة بـ “ اكتشاف السلوك ” للذكاء الاصطناعي ستكون قادرة على تدريب نفسها من خلال مراقبة أنماط الأفراد المشتبه بهم: أنشطة مثل النظر حولك بطريقة متكررة وعصبية.
بينما لم يدخل مسؤولو الشرطة اليابانية في التفاصيل ، ركزت الجهود السابقة في الكاميرات الأمنية المعززة بالذكاء الاصطناعي في الدولة الواقعة في أقصى الشرق على التململ ، والقلق ، وحركة العين السريعة ، وغيرها من السلوكيات التي تم الإبلاغ عنها على أنها من منتجات العقل المذنب.
بينما يؤكد بعض خبراء مكافحة الإرهاب أن نظام تقرير الأقلية (أعلاه) “ سيساعد على نشر ضباط الشرطة بشكل أكثر كفاءة ” ، يشعر آخرون بالقلق من التحيزات الخوارزمية التي تلوث عمل الشرطة
يأمل مسؤولو الشرطة أن يتمكن البرنامج من سحب هذه التعريفات من الحشود الكبيرة وغيرها من الظروف المشتتة للانتباه التي تجعل تحديد المخاطر أمرًا صعبًا حتى بالنسبة للأشخاص المدربين تدريباً عالياً في مجال إنفاذ القانون.
سيساعد تحليل الشكل بالذكاء الاصطناعي النظام أيضًا على اكتشاف العناصر المشبوهة مثل الأسلحة النارية والأسلحة الأخرى (اكتشاف الكائنات) ، بينما سيتم برمجة بعض المواقع المحمية للكشف عن المتسللين الضارين (كشف التسلل).
في الوقت الحالي ، يتوفر ملف لن يكون استخدام وكالة الشرطة الوطنية لتقنية “التنبؤ بالجريمة” هذه سوى اختبار – محاولة لتقييم دقة الكاميرات المدعومة بالذكاء الاصطناعي للنظر بعناية في قيمة اعتماد النظام رسميًا.
لن تستخدم وكالة الشرطة ميزات “التعرف على الوجه” الخاصة بالتكنولوجيا ، وفقًا لمؤشر Nikkei ، مع التركيز فقط على العناصر العامة السلوكيات والأشياء المشبوهة.
قال إيساو إيتاباشي ، كبير المحللين في مجلس السياسة العامة ومقره طوكيو ، لـ Nikkei أن اليابان بعيدة كل البعد عن الدولة الأولى التي تستخدم هذا النوع من تقنيات الذكاء الاصطناعي قبل الجريمة.
قال إيتاباشي ، وهو أيضًا خبير في استراتيجية الدفاع لمكافحة الإرهاب: “تُستخدم كاميرات الذكاء الاصطناعي بالفعل على نطاق واسع في أوروبا والولايات المتحدة وآسيا ، وتقوم الشركات اليابانية بدراسة تكنولوجيا الكشف عن السلوك”.
استطلاع أجرته مؤسسة كارنيجي للسلام الدولي لعام 2019 ، في الواقع ، ذكر أن تقنية الكاميرا الأمنية بالذكاء الاصطناعي كانت مستخدمة بالفعل من قبل 52 دولة من أصل 176 دولة شملتها أبحاثهم.
اعتمدت فرنسا مؤخرًا تشريعًا يجيز تركيب أنظمة أمان للذكاء الاصطناعي لحماية باريس قبل الألعاب الأولمبية والبارالمبية لعام 2024 التي ستقام في العاصمة.
كان القطاع الخاص في اليابان متقدمًا بسنوات على قوة الشرطة الوطنية في استخدام الكاميرات الأمنية المجهزة بالذكاء الاصطناعي.
في مايو الماضي ، في قمة مجموعة السبع في هيروشيما ، نفذت شركة السكك الحديدية اليابانية JR West نظامًا من شأنه إخطار فرق الأمن بالنشاط الذي اعتبرته منظمة العفو الدولية مشبوهًا ، بعد إغلاق القطارات وعمليات الإجلاء في الشهر السابق على “ جسم مشبوه ” لم يتم تحديده علنًا بعد.
وفي عام 2019 ، كشفت الشركة اليابانية الناشئة Vaak عن برنامج جديد مثير للجدل مصمم لتحديد اللصوص المحتملين استنادًا إلى لغة جسدهم.
يتبع إعلان الشرطة الوطنية اليابانية الاتجاهات السائدة في القطاع الخاص في البلاد. في عام 2019 ، بدأت الشركة اليابانية الناشئة Vaak في تقديم برامج مثيرة للجدل يمكن لتجار التجزئة استخدامها لتحديد اللصوص المحتملين من المتاجر. لكن الشرطة التنبؤية أثارت مخاوف بشأن التحيزات العرقية وغيرها
في حين أن جوانب برنامج Vaak تشبه الوعود التي كانت وراء اختبارات وكالة الشرطة الوطنية اليابانية لمنظمة العفو الدولية ، لم يؤكد المسؤولون أنه تم التعاقد مع منتج Vaak لإجراء هذه التجارب.
تم تدريب الذكاء الاصطناعي للكشف عن الجرائم في Vaak على التعرف على الأنشطة “المشبوهة” مثل التململ أو القلق في اللقطات الأمنية ، وفقًا لـ Bloomberg Quint.
تقول فاك إن الذكاء الاصطناعي الخاص بها يمكن أن يميز بين سلوك العميل العادي و “السلوك الإجرامي” ، مثل وضع منتج بعيدًا في سترة دون الدفع.
وفي الواقع ، ورد أن نظام تقرير الأقلية تم استخدامه بنجاح في عام 2018 لتعقب السارق الذي ضرب متجرًا صغيرًا في يوكوهاما.
قال فاك إن برنامجهم يمكن أن ينبه الموظفين إلى السلوك المشبوه عبر تطبيق الهاتف الذكي بمجرد أن يكتشف شيئًا ما في تيار CCTV ، كما قال بلومبرج.
ولكن ، على الرغم من أنها مصممة للقضاء على السرقة ، فقد أثارت كل من الشرطة التنبؤية وجهود الأمن الخاص التنبؤية مخاوف من احتمال استهداف الناس بشكل غير عادل نتيجة للتحيز العنصري وغيره من أشكال التحيز.
وجدت دراسة أجرتها معهد ماساتشوستس للتكنولوجيا نُشرت في عام 2018 أن العديد من أنظمة الذكاء الاصطناعي الشائعة تُظهر ميولًا عنصرية وجنسية.
حث الباحثون الآخرين على استخدام بيانات أفضل لضمان القضاء على التحيزات.
قالت المؤلفة الرئيسية إيرين تشين ، طالبة الدكتوراة ، عندما نُشرت الدراسة في تشرين الثاني (نوفمبر): “غالبًا ما يسارع علماء الكمبيوتر إلى القول إن الطريقة لجعل هذه الأنظمة أقل تحيزًا هي ببساطة تصميم خوارزميات أفضل”.
“لكن الخوارزميات جيدة فقط مثل البيانات التي تستخدمها ، ويظهر بحثنا أنه يمكنك في كثير من الأحيان إحداث فرق أكبر ببيانات أفضل.”
اترك ردك