تستهدف الجهات التنظيمية الذكاء الاصطناعي لحماية المستهلكين والعاملين

نيويورك (أسوشيتد برس) – مع تزايد المخاوف بشأن أنظمة الذكاء الاصطناعي المتزايدة القوة مثل ChatGPT ، تقول هيئة الرقابة المالية في البلاد إنها تعمل على ضمان أن الشركات تتبع القانون عندما تستخدم الذكاء الاصطناعي.

بالفعل ، تساعد الأنظمة والخوارزميات الآلية في تحديد التصنيفات الائتمانية وشروط القرض ورسوم الحساب المصرفي والجوانب الأخرى من حياتنا المالية. يؤثر الذكاء الاصطناعي أيضًا على التوظيف والإسكان وظروف العمل.

قال بن وينترز ، كبير مستشاري مركز معلومات الخصوصية الإلكترونية ، في بيان مشترك بشأن الإنفاذ التي أصدرتها الوكالات الفيدرالية الشهر الماضي كانت خطوة أولى إيجابية.

قال: “هناك رواية مفادها أن الذكاء الاصطناعي غير منظم تمامًا ، وهذا ليس صحيحًا حقًا”. “إنهم يقولون ،” لمجرد أنك تستخدم الذكاء الاصطناعي لاتخاذ قرار ، فهذا لا يعني أنك معفي من المسؤولية فيما يتعلق بتأثيرات هذا القرار. ” ‘هذا رأينا في هذا. نحن نشاهد. “

في العام الماضي ، قال مكتب حماية تمويل المستهلك إنه فرض غرامة على البنوك بسبب سوء إدارة الأنظمة الآلية مما أدى إلى حبس الرهن العقاري بشكل غير مشروع ، واستعادة ملكية السيارات ، وفقدان مدفوعات المزايا ، بعد أن اعتمدت المؤسسات على التكنولوجيا الجديدة والخوارزميات المعيبة.

يقول المنظمون إنه لن يكون هناك “إعفاءات للذكاء الاصطناعي” لحماية المستهلك ، مشيرين إلى إجراءات الإنفاذ هذه كأمثلة.

قال مدير مكتب حماية تمويل المستهلك ، روهيت تشوبرا ، إن الوكالة “بدأت بالفعل بعض العمل لمواصلة تعزيز عضلاتها داخليًا عندما يتعلق الأمر بإحضار علماء البيانات والتكنولوجيين وغيرهم للتأكد من قدرتنا على مواجهة هذه التحديات” وأن الوكالة مستمرة لتحديد النشاط غير القانوني المحتمل.

ممثلو لجنة التجارة الفيدرالية ، ولجنة تكافؤ فرص العمل ، ووزارة العدل ، بالإضافة إلى CFPB ، جميعهم يقولون إنهم يوجهون الموارد والموظفين لاستهداف التكنولوجيا الجديدة وتحديد الطرق السلبية التي يمكن أن تؤثر على حياة المستهلكين.

قال تشوبرا: “أحد الأشياء التي نحاول توضيحها تمامًا هو أنه إذا لم تفهم الشركات حتى كيف يتخذ الذكاء الاصطناعي قراراتها ، فلا يمكنها حقًا استخدامها”. “في حالات أخرى ، نبحث في كيفية الالتزام بقوانين الإقراض العادل عندما يتعلق الأمر باستخدام كل هذه البيانات.”

بموجب قانون الإبلاغ عن الائتمان العادل وقانون تكافؤ الفرص الائتمانية ، على سبيل المثال ، يقع على عاتق مقدمي الخدمات المالية التزام قانوني بشرح أي قرار ائتماني سلبي. تنطبق هذه اللوائح بالمثل على القرارات المتخذة بشأن الإسكان والتوظيف. عندما يتخذ الذكاء الاصطناعي القرارات بطرق غامضة للغاية بحيث لا يمكن تفسيرها ، يقول المنظمون إنه لا ينبغي استخدام الخوارزميات.

قال تشوبرا: “أعتقد أنه كان هناك شعور ،” أوه ، دعنا نعطيها للروبوتات ولن يكون هناك المزيد من التمييز “. “أعتقد أن التعلم هو أن هذا ليس صحيحًا على الإطلاق. في بعض النواحي ، يتم تضمين التحيز في البيانات “.

قالت شارلوت بوروز ، رئيسة لجنة تكافؤ فرص العمل (EEOC) ، إنه سيكون هناك إنفاذ قانون ضد تكنولوجيا التوظيف بالذكاء الاصطناعي التي تستبعد المتقدمين للوظائف من ذوي الإعاقة ، على سبيل المثال ، بالإضافة إلى ما يسمى بـ “البرامج” التي تراقب العمال بشكل غير قانوني.

وصف بوروز أيضًا الطرق التي قد تحدد بها الخوارزميات كيف ومتى يمكن للموظفين العمل بطرق من شأنها أن تنتهك القانون الحالي.

قالت: “إذا كنت بحاجة إلى استراحة لأنك تعاني من إعاقة أو ربما كنت حاملاً ، فأنت بحاجة إلى استراحة”. “لا تأخذ الخوارزمية بالضرورة في الحسبان هذه التسهيلات. هذه هي الأشياء التي ننظر إليها عن كثب … أريد أن أوضح أنه بينما ندرك أن التكنولوجيا تتطور ، فإن الرسالة الأساسية هنا هي أن القوانين لا تزال سارية ولدينا أدوات لفرضها “.

اقترح كبير محامي OpenAI ، في مؤتمر هذا الشهر ، نهجًا تقوده الصناعة للتنظيم.

قال جيسون كوون ، المستشار العام لشركة OpenAI ، أمام قمة التكنولوجيا في واشنطن العاصمة ، التي استضافتها مجموعة صناعة البرمجيات BSA: “أعتقد أن الأمر يبدأ أولاً بمحاولة الوصول إلى نوع من المعايير”. يمكن أن يبدأ هؤلاء بمعايير الصناعة ونوع من الاندماج حول ذلك. والقرارات المتعلقة بجعل هذه الأمور إلزامية أم لا ، وأيضًا ما هي العملية لتحديثها ، ربما تكون هذه الأشياء أرضًا خصبة لمزيد من المحادثات “.

قال سام ألتمان ، رئيس OpenAI ، التي تصنع ChatGPT ، إن التدخل الحكومي “سيكون حاسمًا للتخفيف من مخاطر أنظمة الذكاء الاصطناعي المتزايدة القوة”، مما يقترح تشكيل وكالة أمريكية أو عالمية لترخيص التكنولوجيا وتنظيمها.

بينما لا توجد أي إشارة فورية على أن الكونجرس سوف يضع قواعد جديدة شاملة للذكاء الاصطناعي ، كما يفعل المشرعون الأوروبيون، جلبت المخاوف المجتمعية ألتمان وغيره من الرؤساء التنفيذيين للتكنولوجيا إلى البيت الأبيض هذا الشهر للإجابة على الأسئلة الصعبة حول الآثار المترتبة على هذه الأدوات.

قال وينترز ، من مركز معلومات الخصوصية الإلكترونية ، إنه يمكن للوكالات أن تفعل المزيد لدراسة ونشر المعلومات حول أسواق الذكاء الاصطناعي ذات الصلة ، وكيف تعمل الصناعة ، ومن هم أكبر اللاعبين ، وكيف يتم استخدام المعلومات التي يتم جمعها – بالطريقة التي يستخدمها المنظمون في الماضي باستخدام منتجات وتقنيات تمويل المستهلك الجديدة.

“قام CFPB بعمل جيد جدًا في هذا الأمر مع شركات” اشتر الآن ، وادفع لاحقًا “،” هو قال. “هناك أجزاء محتملة من النظام البيئي للذكاء الاصطناعي لا تزال غير معروفة. إن نشر هذه المعلومات سيقطع شوطًا طويلاً “.

___

ساهم مراسل التكنولوجيا مات أوبراين في هذا التقرير.

___

تتلقى وكالة أسوشيتد برس دعمًا من مؤسسة تشارلز شواب للتقارير التربوية والتفسيرية لتحسين الثقافة المالية. المؤسسة المستقلة منفصلة عن مؤسسة تشارلز شواب وشركاه. أسوشيتد برس هي المسؤولة الوحيدة عن صحافتها.