اقترح الباحثون منح الخوارزميات سلطة على أحد أهم الركائز الأساسية للمجتمع الأمريكي، ألا وهو النظام القضائي.
اقترح علماء من معهد ماساتشوستس للتكنولوجيا أنه يمكن استخدام التكنولوجيا لجعل قرارات الكفالة قبل المحاكمة أكثر عدالة بعد أن وجدت دراستهم أن القضاة البشريين متحيزون بشكل منهجي.
قام الفريق بتحليل اكتشاف أكثر من مليون حالة في مدينة نيويورك توصل 20 بالمائة من القضاة إلى استنتاجاتهم بناءً على عمر المدعى عليه أو عرقه أو تاريخه الإجرامي.
ووجدت الصحيفة أن قرارات ما لا يقل عن 32 بالمائة من القضاة كانت غير متسقة مع القدرة الفعلية للمتهمين على دفع مبلغ محدد للكفالة والمخاطر الحقيقية المتمثلة في فشلهم في المثول أمام المحكمة.
وجدت دراسة جديدة أن قضاة نيويورك يرتكبون أحيانًا خطأً بناءً على تحيزاتهم عند تحديد الكفالة للمتهم الجديد. وقال هذا الباحث إنه قد يكون من المفيد استبدال قرار القاضي بخوارزمية.
قبل محاكمة المدعى عليه على جريمته، يعقد القاضي جلسة استماع قبل المحاكمة حيث يحدد ما إذا كان يجب السماح لشخص ما بالخروج إلى العالم قبل بدء قضيته في المحكمة أو ما إذا كان عرضة للفرار، ويجب احتجازه قيد التوقيف.
إذا قرروا إطلاق سراح شخص ما، فإنهم يحددون السعر الذي يجب على الشخص دفعه لإطلاق سراحه – الكفالة.
إن كيفية تحديد كفالة الشخص وما إذا كان ينبغي السماح له بالخروج من الحجز أم لا هو أمر متروك للقاضي الفردي. وهنا يأتي دور التحيز البشري، وفقًا لمؤلف الدراسة البروفيسور آشيش رامباتشان.
وقد قامت هذه الورقة، التي نُشرت في المجلة الربع سنوية للاقتصاد، بتمشيط أكثر من 1,460,462 قضية قضائية سابقة في الفترة من 2008 إلى 2013 في مدينة نيويورك.
ووجدت أن 20% من القضاة اتخذوا قرارات متحيزة بناءً على عرق الشخص أو عمره أو سجله السابق.
وقد أدى ذلك إلى حدوث خطأ في حوالي 30 بالمائة من جميع قرارات الكفالة.
قد يعني هذا أنه تم السماح لشخص ما بالخروج من السجن وحاول الفرار، أو قد يعني أنهم قرروا إبقاء شخص ما رهن الاحتجاز بحيث لا يشكل خطرًا على الطيران.
ولذلك يرى البروفيسور رامباتشان أن استخدام خوارزمية لاستبدال أو تحسين عملية صنع القرار لدى القاضي في جلسة الاستماع السابقة للمحاكمة يمكن أن يجعل نظام الكفالة أكثر عدالة.
وكتب أن هذا سيعتمد على بناء خوارزمية تناسب النتائج المرجوة بدقة، وهو أمر غير موجود بعد.
قد يبدو هذا بعيد المنال، لكن الذكاء الاصطناعي يشق طريقه ببطء إلى قاعات المحاكم في جميع أنحاء العالم. وفي أواخر عام 2023، قضت الحكومة البريطانية بأنه يمكن للقضاة استخدام ChatGPT لكتابة الأحكام القانونية.
وفي وقت سابق من العام نفسه، نجحت خوارزميتان في محاكاة المفاوضات القانونية، وصياغة عقد اعتبره المحامون سليمًا والتسوية عليه.
لكن في أماكن أخرى، كانت نقاط ضعف الذكاء الاصطناعي واضحة للعيان.
في وقت سابق من هذا العام، تم استدعاء شركة Google التي تولد صور Gemini AI لإنتاج صور متنوعة، ولكنها غير دقيقة تاريخيًا، للمستخدمين.
على سبيل المثال، عندما طلب المستخدمون من موقع الويب أن يعرض لهم صورة لأحد النازيين، كانت الصورة التي أنشأوها لشخص أسود يرتدي زي قوات الأمن الخاصة. رداً على ذلك، اعترفت شركة Google بأن خوارزميتها “أخطأت الهدف” الذي تم تصميمها للقيام به.
وقد ثبت أن أنظمة أخرى، مثل Chat GPT الخاصة بـ Open AI، ترتكب جرائم عندما تُترك دون مراقبة.
عندما طُلب من ChatGPT العمل كمتداول مالي في سيناريو افتراضي، فقد التزم بالتداول الداخلي بنسبة 75 بالمائة من الوقت.
يمكن أن تكون هذه الخوارزميات مفيدة عند تصميمها وتطبيقها بشكل صحيح.
لكنهم لا يخضعون لنفس المعايير أو القوانين التي يخضع لها البشر، كما يقول علماء مثل كريستين موسر، مما يعني أنه لا ينبغي لهم اتخاذ قرارات تتطلب أخلاقيات إنسانية.
كتب البروفيسور موسر، الذي يدرس نظرية التنظيم في جامعة فريجي بهولندا، في ورقة بحثية عام 2022 أن السماح للذكاء الاصطناعي باتخاذ قرارات الحكم يمكن أن يكون منحدرًا زلقًا.
وقالت إن استبدال المزيد من الأنظمة البشرية بالذكاء الاصطناعي “قد يحل محل الحكم البشري في عملية صنع القرار، وبالتالي يغير الأخلاق بطرق جوهرية، وربما لا رجعة فيها”.
اترك ردك