تتسابق الحكومات لتنظيم أدوات الذكاء الاصطناعي

26 أكتوبر (رويترز) – يؤدي التقدم السريع في الذكاء الاصطناعي (AI) مثل ChatGPT المدعوم من شركة OpenAI إلى تعقيد جهود الحكومات للاتفاق على القوانين التي تحكم استخدام التكنولوجيا.

فيما يلي أحدث الخطوات التي تتخذها الهيئات الإدارية الوطنية والدولية لتنظيم أدوات الذكاء الاصطناعي:

أستراليا

* ضوابط التخطيط

ستطلب أستراليا من محركات البحث صياغة قواعد جديدة لمنع مشاركة مواد الاعتداء الجنسي على الأطفال التي أنشأها الذكاء الاصطناعي وإنتاج نسخ مزيفة من نفس المادة، حسبما قالت هيئة تنظيم الإنترنت في سبتمبر.

بريطانيا

* ضوابط التخطيط

قال رئيس الوزراء ريشي سوناك يوم 26 أكتوبر، قبل انعقاد القمة العالمية الأولى لسلامة الذكاء الاصطناعي في بلتشلي بارك يومي 1 و2 نوفمبر، إن الحكومات والشركات بحاجة إلى معالجة مخاطر الذكاء الاصطناعي بشكل مباشر.

وأضاف سوناك أن بريطانيا ستنشئ أول معهد للسلامة في مجال الذكاء الاصطناعي في العالم “لفهم ما يستطيع كل نموذج جديد فعله، واستكشاف جميع المخاطر الناجمة عن الأضرار الاجتماعية مثل التحيز والمعلومات المضللة وصولاً إلى المخاطر القصوى”.

قالت هيئة مراقبة البيانات البريطانية في 10 أكتوبر إنها أصدرت إشعارًا تنفيذيًا أوليًا لتطبيق Snapchat التابع لشركة Snap Inc (SNAP.N) بشأن فشل محتمل في تقييم مخاطر الخصوصية بشكل صحيح لبرنامج الدردشة الآلي المولد بالذكاء الاصطناعي للمستخدمين، وخاصة الأطفال.

الصين

* تم تنفيذ اللوائح المؤقتة

نشرت الصين متطلبات أمنية مقترحة للشركات التي تقدم خدمات مدعومة بالذكاء الاصطناعي التوليدي في 12 أكتوبر، بما في ذلك قائمة سوداء بالمصادر التي لا يمكن استخدامها لتدريب نماذج الذكاء الاصطناعي.

وأصدرت البلاد مجموعة من التدابير المؤقتة في أغسطس، والتي تطلب من مقدمي الخدمات تقديم تقييمات أمنية والحصول على تصريح قبل إطلاق منتجات الذكاء الاصطناعي في السوق الشامل.

الاتحاد الأوروبي

* ضوابط التخطيط

اتفق المشرعون الأوروبيون في 24 أكتوبر على جزء مهم من قواعد الذكاء الاصطناعي الجديدة التي تحدد أنواع الأنظمة التي سيتم تصنيفها على أنها “عالية المخاطر”، واقتربوا من التوصل إلى اتفاق أوسع بشأن قانون الذكاء الاصطناعي التاريخي، وفقًا لخمسة أشخاص مطلعين على الأمر. . وقال مقرران مشاركين إنه من المتوقع التوصل إلى اتفاق في ديسمبر.

دعت رئيسة المفوضية الأوروبية أورسولا فون دير لاين في 13 سبتمبر/أيلول إلى تشكيل لجنة عالمية لتقييم مخاطر وفوائد الذكاء الاصطناعي.

فرنسا

* التحقيق في الخروقات المحتملة

وقالت هيئة مراقبة الخصوصية الفرنسية في أبريل/نيسان إنها تحقق في شكاوى بشأن ChatGPT.

G7

* البحث عن مدخلات بشأن اللوائح

ودعا زعماء مجموعة السبع في مايو/أيار إلى تطوير واعتماد معايير فنية لإبقاء الذكاء الاصطناعي “جديرا بالثقة”.

إيطاليا

* التحقيق في الخروقات المحتملة

تخطط هيئة حماية البيانات الإيطالية لمراجعة منصات الذكاء الاصطناعي وتوظيف خبراء في هذا المجال، حسبما قال مسؤول كبير في مايو. تم حظر ChatGPT مؤقتًا في البلاد في مارس، ولكن تم إتاحته مرة أخرى في أبريل.

اليابان

* التحقيق في الخروقات المحتملة

وتتوقع اليابان أن تقدم بحلول نهاية عام 2023 لوائح تنظيمية من المرجح أن تكون أقرب إلى الموقف الأمريكي من تلك الصارمة المخطط لها في الاتحاد الأوروبي، حسبما قال مسؤول قريب من المداولات في يوليو/تموز.

حذرت هيئة مراقبة الخصوصية في البلاد OpenAI من جمع البيانات الحساسة دون إذن الناس.

بولندا

* التحقيق في الخروقات المحتملة

قال مكتب حماية البيانات الشخصية في بولندا يوم 21 سبتمبر إنه يحقق في OpenAI بشأن شكوى مفادها أن ChatGPT ينتهك قوانين حماية البيانات في الاتحاد الأوروبي.

إسبانيا

* التحقيق في الخروقات المحتملة

أطلقت وكالة حماية البيانات الإسبانية في أبريل تحقيقًا أوليًا في انتهاكات البيانات المحتملة بواسطة ChatGPT.

الأمم المتحدة

* ضوابط التخطيط

قال الأمين العام أنطونيو غوتيريش إن مجلس الأمن الدولي عقد أول مناقشة رسمية له حول الذكاء الاصطناعي في يوليو/تموز، وتناول التطبيقات العسكرية وغير العسكرية للذكاء الاصطناعي التي “يمكن أن يكون لها عواقب وخيمة للغاية على السلام والأمن العالميين”.

وقد أيد جوتيريس اقتراحًا قدمه بعض المديرين التنفيذيين للذكاء الاصطناعي لإنشاء هيئة رقابية للذكاء الاصطناعي، وأعلن عن خطط لبدء العمل في هيئة استشارية رفيعة المستوى للذكاء الاصطناعي بحلول نهاية العام.

نحن

* البحث عن مدخلات بشأن اللوائح

وذكرت صحيفة واشنطن بوست أنه من المتوقع أن يكشف البيت الأبيض في 30 أكتوبر/تشرين الأول عن أمر تنفيذي طال انتظاره بشأن الذكاء الاصطناعي، والذي سيتطلب “إخضاع نماذج الذكاء الاصطناعي المتقدمة للتقييمات قبل أن يتمكن الموظفون الفيدراليون من استخدامها”.

وعقد الكونجرس الأمريكي في سبتمبر جلسات استماع حول الذكاء الاصطناعي ومنتدى للذكاء الاصطناعي ضم مارك زوكربيرج الرئيس التنفيذي لشركة ميتا (META.O) وإيلون ماسك الرئيس التنفيذي لشركة تسلا.

وشارك أكثر من 60 عضوًا في مجلس الشيوخ في المحادثات، التي دعا خلالها ماسك إلى تعيين “حكم” أمريكي للذكاء الاصطناعي. وقال المشرعون إن هناك اتفاقا عالميا على الحاجة إلى تنظيم حكومي لهذه التكنولوجيا.

في 12 سبتمبر، قال البيت الأبيض إن Adobe (ADBE.O)، وIBM (IBM.N)، وNvidia (NVDA.O) وخمس شركات أخرى وقعت على التزامات الرئيس جو بايدن الطوعية التي تحكم الذكاء الاصطناعي، والتي تتطلب خطوات مثل وضع علامة مائية على الذكاء الاصطناعي. المحتوى الذي تم إنشاؤه.

حكم قاضي مقاطعة واشنطن العاصمة في أغسطس الماضي بأن العمل الفني الذي تم إنشاؤه بواسطة الذكاء الاصطناعي دون أي مساهمة بشرية لا يمكن أن يتمتع بحقوق الطبع والنشر بموجب قانون الولايات المتحدة.

وفتحت لجنة التجارة الفيدرالية الأمريكية في يوليو/تموز الماضي تحقيقا في شركة OpenAI، بناء على مزاعم بأنها خالفت قوانين حماية المستهلك.

جمعه أليساندرو بارودي وأمير أوروسوف في غدانسك؛ تحرير كيرستن دونوفان ومارك بوتر وكريستينا فينشر وميلا نيسي

معاييرنا: مبادئ الثقة في طومسون رويترز.

الحصول على حقوق الترخيص، يفتح علامة تبويب جديدة