8 نوفمبر (رويترز) – قال المشرع بالاتحاد الأوروبي براندو بينيفي، أحد مهندسي قواعد الذكاء الاصطناعي للاتحاد، يوم الأربعاء إنه يتوقع أن يكون قانون الذكاء الاصطناعي للاتحاد الأوروبي بمثابة “مخطط أولي” يمكن أن تستخدمه الدول في جميع أنحاء العالم لتشريعاتها. .
وبينما كانت العديد من الدول تبحث عن طرق لتنظيم الذكاء الاصطناعي، أخذ المشرعون الأوروبيون زمام المبادرة من خلال صياغة قواعد الذكاء الاصطناعي التي تهدف إلى وضع معيار عالمي لمفتاح التكنولوجيا لكل صناعة وأعمال تقريبا. ويمكن الموافقة على مسودة القواعد بحلول الشهر المقبل.
وقال بينيفي في مؤتمر رويترز نكست في نيويورك “لقد عملنا على إطار المخاطر هذا الذي يمكن تطبيقه بصيغة مختلفة، أقل إلزاما من صيغة الاتحاد الأوروبي، لكنه يمكن أن يكون نموذجا لتطبيقات أخرى في أجزاء أخرى من العالم”.
وشدد المسؤولون التنفيذيون والخبراء الذين حضروا المؤتمر على أهمية إنشاء حواجز أمام الذكاء الاصطناعي لمنع التهديدات التي يتعرض لها المجتمع والديمقراطية.
تحدث الكونجرس الأمريكي عن إصدار تشريعات مهمة لمعالجة الضرر الذي قد يلحقه الذكاء الاصطناعي، بما في ذلك قضايا مثل كيفية تأثيره على الانتخابات.
وقع الرئيس جو بايدن على أمر تنفيذي يطلب من مطوري أنظمة الذكاء الاصطناعي التي تشكل مخاطر على الأمن القومي الأمريكي أو الاقتصاد أو الصحة العامة أو السلامة مشاركة نتائج اختبارات السلامة مع حكومة الولايات المتحدة قبل نشرها للجمهور.
قالت ليز أوسوليفان، وهي عضو في اللجنة الاستشارية الوطنية للذكاء الاصطناعي التي تقدم المشورة بشأن استراتيجية الذكاء الاصطناعي في الولايات المتحدة، يوم الأربعاء إن الذكاء الاصطناعي كان محافظًا في الأساس، وليس إبداعيًا، ويكرر إلى حد كبير المواقف التي شهدها، بما في ذلك أي تحيز.
وأشار أوسوليفان، الرئيس التنفيذي لشركة فيرا، وهي شركة تساعد الشركات على نشر الذكاء الاصطناعي، إلى أن التنظيم المحتمل للذكاء الاصطناعي قد يشمل أشياء مثل عمليات التدقيق من أصحاب المصلحة الخارجيين، وتقييمات تأثير المخاطر، بالإضافة إلى ضوابط مثل القدرة على إيقاف تشغيل الذكاء الاصطناعي.
ونشرت بريطانيا الأسبوع الماضي ورقة تعرف باسم “إعلان بلتشلي” تم الاتفاق عليها مع 28 دولة من بينها الولايات المتحدة والصين، بهدف تعزيز الجهود العالمية للتعاون في مجال سلامة الذكاء الاصطناعي.
وافقت مجموعة الدول السبع الغنية الشهر الماضي على مدونة سلوك طوعية للشركات التي تطور الذكاء الاصطناعي المتقدم كحكومات، مما يضع علامة بارزة لكيفية إدارة الدول الكبرى للذكاء الاصطناعي، وسط مخاوف الخصوصية والمخاطر الأمنية.
وقال بنيفي: “إننا نتفق مع العديد من القضايا الواردة في الالتزامات الطوعية التي نراها في جميع أنحاء العالم، ولكن أيضًا في الولايات المتحدة”. “لكننا وضعناه في قانون حتى لا يكون التزاما طوعيا.”
وقال: “يمكننا بناء هذه الأبجدية المشتركة لأنه من المهم للغاية التعامل مع التحديات ذات المستوى الأعلى في تطوير الذكاء الاصطناعي، على سبيل المثال، خطر استخدام الذكاء الاصطناعي كأسلحة”.
لمشاهدة البث المباشر للمسرح العالمي، انتقل إلى صفحة أخبار Reuters NEXT: https://www.reuters.com/world/reuters-next/
(تغطية صحفية سوبانثا موخرجي في ستوكهولم وديان بارتز في واشنطن وجيفري داستن في سان فرانسيسكو – إعداد محمد للنشرة العربية – إعداد محمد اليماني للنشرة العربية) تحرير ديان كرافت
معاييرنا: مبادئ الثقة في طومسون رويترز.
اترك ردك