حقائق: جهود الحكومات لتنظيم أدوات الذكاء الاصطناعي

14 أبريل (رويترز) – قال رئيس الوكالة الإيطالية لحماية البيانات يوم الثلاثاء إن هيئة الرقابة على حماية البيانات الإيطالية مستعدة لإعادة تنشيط تقنية ChatGPT للذكاء الاصطناعي (AI) في 30 أبريل إذا اتخذت الشركة المصنعة OpenAI “خطوات مفيدة” لمعالجة المخاوف بشأن الخصوصية وحماية البيانات.

تؤدي التطورات السريعة في الذكاء الاصطناعي ، مثل برنامج ChatGPT التابع لشركة OpenAI المدعومة من Microsoft ، إلى تعقيد جهود الحكومات للاتفاق على القوانين التي تحكم استخدام التكنولوجيا.

فيما يلي أحدث الخطوات التي تتخذها الهيئات الحكومية الوطنية والدولية لتنظيم أدوات الذكاء الاصطناعي:

أستراليا

* التماس المدخلات على اللوائح

قال متحدث باسم وزارة الصناعة والعلوم في 12 أبريل / نيسان إن الحكومة طلبت مشورة بشأن كيفية الاستجابة للذكاء الاصطناعي من الهيئة الاستشارية العلمية الرئيسية في أستراليا وتدرس الخطوات التالية.

بريطانيا

* لوائح التخطيط

قالت بريطانيا في مارس / آذار إنها تخطط لتقسيم المسؤولية عن إدارة الذكاء الاصطناعي بين منظمي حقوق الإنسان والصحة والسلامة والمنافسة ، بدلاً من إنشاء هيئة جديدة.

الصين

* لوائح التخطيط

كشفت الجهة المنظمة للفضاء الإلكتروني في الصين في 11 أبريل / نيسان عن مسودة إجراءات لإدارة خدمات الذكاء الاصطناعي التوليفية ، قائلة إنها تريد من الشركات تقديم تقييمات أمنية إلى السلطات قبل إطلاقها للعروض للجمهور.

قال مكتب تكنولوجيا المعلومات والاقتصاد الصيني في فبراير / شباط إن العاصمة الصينية بكين ستدعم الشركات الرائدة في بناء نماذج ذكاء اصطناعي يمكنها تحدي ChatGPT.

الاتحاد الأوروبي

* لوائح التخطيط

حث اثنا عشر مشرعا من الاتحاد الأوروبي زعماء العالم في 17 أبريل على عقد قمة لإيجاد طرق للتحكم في تطوير أنظمة ذكاء اصطناعي متقدمة ، قائلين إنهم يتطورون بشكل أسرع من المتوقع.

قال مجلس حماية البيانات الأوروبي ، الذي يوحد هيئات مراقبة الخصوصية الوطنية في أوروبا ، في 13 أبريل / نيسان ، إنه أنشأ فريق عمل بشأن ChatGPT ، وهي خطوة أولى مهمة نحو سياسة مشتركة لوضع قواعد الخصوصية على الذكاء الاصطناعي.

يناقش المشرعون في الاتحاد الأوروبي أيضًا إدخال قانون الاتحاد الأوروبي للذكاء الاصطناعي الذي سيحكم أي شخص يقدم منتجًا أو خدمة تستخدم الذكاء الاصطناعي. اقترح المشرعون تصنيف أدوات الذكاء الاصطناعي المختلفة وفقًا لمستوى المخاطرة المتصور ، من منخفض إلى غير مقبول.

فرنسا

* التحقيق في الانتهاكات المحتملة

قالت هيئة مراقبة الخصوصية في فرنسا CNIL في 11 أبريل إنها تحقق في العديد من الشكاوى المتعلقة بـ ChatGPT بعد حظر برنامج الدردشة مؤقتًا في إيطاليا بسبب الاشتباه في خرق قواعد الخصوصية.

وافقت الجمعية الوطنية الفرنسية في مارس / آذار على استخدام المراقبة بالفيديو بالذكاء الاصطناعي خلال أولمبياد باريس 2024 ، متجاهلة تحذيرات جماعات الحقوق المدنية من أن التكنولوجيا تشكل تهديدًا للحريات المدنية.

إيطاليا

* التخطيط لرفع الحظر

قال رئيس الوكالة الإيطالية لحماية البيانات في مقابلة يوم 18 أبريل إنه مستعد لإعادة تنشيط ChatGPT في 30 أبريل إذا اتخذت OpenAI “خطوات مفيدة” لمعالجة مخاوف الوكالة في 18 أبريل. تلبية مطالبها بشأن حماية البيانات والخصوصية.

فرضت إيطاليا حظرًا مؤقتًا على ChatGPT في 31 مارس بعد أن أثارت السلطة مخاوف بشأن انتهاكات الخصوصية المحتملة وفشلها في التحقق من أن المستخدمين يبلغون من العمر 13 عامًا أو أكثر ، كما طلبت.

اليابان

* التماس المدخلات على اللوائح

قال وزير التحول الرقمي ، تارو كونو ، في 10 أبريل / نيسان ، إنه يريد الاجتماع القادم للوزراء الرقميين لمجموعة السبع ، المقرر عقده في الفترة من 29 إلى 30 أبريل ، لمناقشة تقنيات الذكاء الاصطناعي بما في ذلك ChatGPT وإصدار رسالة موحدة لمجموعة السبعة.

إسبانيا

* التحقيق في الانتهاكات المحتملة

قالت وكالة حماية البيانات الإسبانية في 13 أبريل إنها بدأت تحقيقًا أوليًا في انتهاكات البيانات المحتملة من قبل ChatGPT. وقالت الوكالة لرويترز في 11 أبريل إنها طلبت من هيئة مراقبة الخصوصية في الاتحاد الأوروبي تقييم مخاوف الخصوصية المحيطة بـ ChatGPT.

نحن

* التماس المدخلات على اللوائح

قالت إدارة بايدن في 11 أبريل / نيسان إنها تسعى للحصول على تعليقات عامة حول إجراءات المساءلة المحتملة لأنظمة الذكاء الاصطناعي. كان الرئيس جو بايدن قد أخبر مستشاري العلوم والتكنولوجيا في وقت سابق أن الذكاء الاصطناعي يمكن أن يساعد في معالجة الأمراض وتغير المناخ ، ولكن من المهم أيضًا معالجة المخاطر المحتملة على المجتمع والأمن القومي والاقتصاد.

معاييرنا: مبادئ الثقة في Thomson Reuters.