واشنطن مصممة على حكم الذكاء الاصطناعي ، لكن كيف؟

واشنطن (رويترز) – يكافح المشرعون الأمريكيون بشأن ما يجب وضعه من حواجز للذكاء الاصطناعي المزدهر ، لكن بعد شهور من جذب ChatGPT انتباه واشنطن ، فإن الإجماع غير مؤكد.

تظهر المقابلات مع أحد أعضاء مجلس الشيوخ الأمريكي وموظفي الكونغرس وشركات الذكاء الاصطناعي ومجموعات المصالح أن هناك عددًا من الخيارات قيد المناقشة.

تركز بعض المقترحات على الذكاء الاصطناعي الذي قد يعرض حياة الناس أو سبل عيشهم للخطر ، كما هو الحال في الطب والتمويل. تشمل الاحتمالات الأخرى قواعد لضمان عدم استخدام الذكاء الاصطناعي للتمييز أو انتهاك الحقوق المدنية لشخص ما.

هناك جدل آخر يدور حول ما إذا كان يجب تنظيم مطور الذكاء الاصطناعي أو الشركة التي تستخدمه للتفاعل مع المستهلكين. وناقشت شركة OpenAI ، الشركة الناشئة وراء برنامج ChatGPT ذي الإحساس بالروبوتات ، منظمًا مستقلًا للذكاء الاصطناعي.

من غير المؤكد ما هي الأساليب التي ستنتصر ، لكن البعض في مجتمع الأعمال ، بما في ذلك IBM (IBM.N) وغرفة التجارة الأمريكية ، يفضلون النهج الذي ينظم فقط المجالات الحرجة مثل التشخيصات الطبية ، والتي يسمونها النهج القائم على المخاطر.

قال جوردان كرينشو من مركز مشاركة التكنولوجيا بالغرفة ، إنه إذا قرر الكونجرس أن هناك قوانين جديدة ضرورية ، فإن لجنة الذكاء الاصطناعي التابعة للغرفة الأمريكية تدعو إلى “تحديد المخاطر من خلال التأثير على الأفراد”. “قد لا تشكل توصية الفيديو خطورة كبيرة مثل القرارات التي يتم اتخاذها بشأن الصحة أو الشؤون المالية.”

أثار ارتفاع شعبية ما يسمى بالذكاء الاصطناعي التوليدي ، والذي يستخدم البيانات لإنشاء محتوى جديد مثل نثر ChatGPT الذي يبدو كأنه إنسان ، القلق من أن التكنولوجيا سريعة التطور يمكن أن تشجع الغش في الامتحانات ، وتغذي المعلومات المضللة وتؤدي إلى جيل جديد من عمليات الاحتيال.

أدى الضجيج في مجال الذكاء الاصطناعي إلى سلسلة من الاجتماعات ، بما في ذلك زيارة البيت الأبيض هذا الشهر من قبل الرؤساء التنفيذيين لشركة OpenAI ، وداعمها Microsoft Corp (MSFT.O) ، و Alphabet Inc (GOOGL.O). التقى الرئيس جو بايدن بالرؤساء التنفيذيين.

يقول مساعدو الكونجرس وخبراء التكنولوجيا إن الكونجرس منخرط بالمثل.

قال جاك كلارك ، الشريك المؤسس لشركة أنثروبيك الناشئة الرائدة في مجال الذكاء الاصطناعي ، والتي حضر رئيسها التنفيذي أيضًا اجتماع البيت الأبيض: “استيقظ الموظفون على نطاق واسع في مجلسي النواب والشيوخ وطُلب منهم جميعًا الالتفاف حول هذا الأمر”. “يريد الناس التفوق على الذكاء الاصطناعي ، ويرجع ذلك جزئيًا إلى شعورهم بأنهم لم يتقدموا على وسائل التواصل الاجتماعي.”

وقال آدم كوفاسيفيتش ، رئيس غرفة التقدم المؤيدة للتكنولوجيا ، مع تسريع المشرعين ، فإن الأولوية الرئيسية لشركة Big Tech هي الضغط ضد “المبالغة في رد الفعل المبكر”.

وفي حين أن المشرعين مثل زعيم الأغلبية في مجلس الشيوخ تشاك شومر مصممون على معالجة قضايا الذكاء الاصطناعي بطريقة من الحزبين ، فإن الحقيقة هي أن الكونجرس مستقطب ، والانتخابات الرئاسية العام المقبل ، والمشرعون يعالجون قضايا كبيرة أخرى ، مثل رفع سقف الديون.

تتطلب خطة شومر المقترحة خبراء مستقلين لاختبار تقنيات الذكاء الاصطناعي الجديدة قبل إصدارها. كما يدعو إلى الشفافية وتزويد الحكومة بالبيانات التي تحتاجها لتجنب الضرر.

الإدارة الحكومية الدقيقة

يعني النهج القائم على المخاطر أن الذكاء الاصطناعي المستخدم في تشخيص السرطان ، على سبيل المثال ، سيخضع للتدقيق من قبل إدارة الغذاء والدواء ، بينما لن يتم تنظيم الذكاء الاصطناعي لأغراض الترفيه. لقد تحرك الاتحاد الأوروبي نحو تمرير قواعد مماثلة.

لكن التركيز على المخاطر يبدو غير كافٍ بالنسبة للسيناتور الديمقراطي مايكل بينيت ، الذي قدم مشروع قانون يدعو إلى تشكيل فريق عمل حكومي للذكاء الاصطناعي. وقال إنه يدعو إلى “نهج قائم على القيم” لإعطاء الأولوية للخصوصية والحريات المدنية والحقوق.

أضاف أحد مساعدي بينيت أن القواعد القائمة على المخاطر قد تكون صارمة للغاية وتفشل في التقاط مخاطر مثل استخدام الذكاء الاصطناعي للتوصية بمقاطع الفيديو التي تعزز التفوق الأبيض.

ناقش المشرعون أيضًا أفضل السبل لضمان عدم استخدام الذكاء الاصطناعي للتمييز العنصري ، ربما في تحديد من يحصل على رهن عقاري منخفض الفائدة ، وفقًا لشخص تابع لمناقشات في الكونجرس غير مصرح له بالتحدث إلى المراسلين.

في OpenAI ، فكر الموظفون في إشراف أوسع.

كولين أوكيف ، عالم أبحاث OpenAI ، اقترح في حديث في أبريل في جامعة ستانفورد إنشاء وكالة من شأنها أن تفرض على الشركات الحصول على التراخيص قبل تدريب نماذج الذكاء الاصطناعي القوية أو تشغيل مراكز البيانات التي تسهلها. وقال O’Keefe إن الوكالة يمكن أن يطلق عليها اسم مكتب سلامة وأمن البنية التحتية للذكاء الاصطناعي ، أو OASIS.

وردا على سؤال حول الاقتراح ، قالت ميرا موراتي ، كبيرة مسؤولي التكنولوجيا في OpenAI ، إن هيئة جديرة بالثقة يمكن أن “تحاسب المطورين” على معايير السلامة. لكن الأهم من الآليات كان الاتفاق على “ماهية المعايير ، وما هي المخاطر التي تحاول التخفيف منها”.

كان آخر منظم رئيسي تم إنشاؤه هو مكتب حماية المستهلك المالي ، والذي تم إنشاؤه بعد الأزمة المالية 2007-2008.

قد يرفض بعض الجمهوريين أي تنظيم للذكاء الاصطناعي.

وقال مساعد جمهوري في مجلس الشيوخ لرويترز “يجب أن نكون حريصين على ألا تصبح المقترحات التنظيمية للذكاء الاصطناعي آلية للإدارة الحكومية التفصيلية لشفرات الكمبيوتر مثل محركات البحث والخوارزميات.”

معاييرنا: مبادئ الثقة في Thomson Reuters.

ديان بارتز

طومسون رويترز

ركز على مكافحة الاحتكار في الولايات المتحدة بالإضافة إلى لوائح وتشريعات الشركات ، مع خبرة في تغطية الحرب في البوسنة ، والانتخابات في المكسيك ونيكاراغوا ، بالإضافة إلى قصص من البرازيل وتشيلي وكوبا والسلفادور ونيجيريا وبيرو.

جيفري داستين

طومسون رويترز

جيفري داستن هو مراسل لرويترز في سان فرانسيسكو ، حيث يقدم تقارير عن صناعة التكنولوجيا والذكاء الاصطناعي. انضم إلى رويترز في عام 2014 ، وكان يكتب في الأصل عن شركات الطيران والسفر من مكتب نيويورك. تخرج داستن من جامعة ييل بدرجة في التاريخ. كان جزءًا من فريق فحص الضغط من قبل Amazon.com حول العالم ، والذي فاز عنه بجائزة SOPA في عام 2022.