
سام ألتمان، الرئيس التنفيذي لشركة OpenAI، يحضر قمة الرؤساء التنفيذيين لمنظمة التعاون الاقتصادي لآسيا والمحيط الهادئ (APEC) في سان فرانسيسكو، كاليفورنيا، الولايات المتحدة في 16 نوفمبر 2023. رويترز/كارلوس باريا/صورة الملف تحصل على حقوق الترخيص
لندن (رويترز) – مع اقتراب الاتحاد الأوروبي من إقرار مجموعة واسعة النطاق من القوانين التي تحكم الذكاء الاصطناعي، يقول المشرعون والخبراء إن الإقالة المفاجئة للرئيس التنفيذي لشركة OpenAI سام ألتمان تؤكد الحاجة إلى قواعد صارمة.
ألتمان، المؤسس المشارك للشركة الناشئة التي أطلقت العام الماضي طفرة الذكاء الاصطناعي، تم طرده فجأة من قبل مجلس إدارة OpenAI الأسبوع الماضي، مما أرسل موجات صادمة عبر عالم التكنولوجيا ودفع الموظفين إلى توجيه تهديدات باستقالة جماعية في الشركة.
وعبر المحيط الأطلسي، تعمل المفوضية الأوروبية والبرلمان الأوروبي ومجلس الاتحاد الأوروبي على صياغة التفاصيل الدقيقة لقانون الذكاء الاصطناعي، وهو عبارة عن مجموعة شاملة من القوانين التي تتطلب من بعض الشركات إكمال تقييمات واسعة النطاق للمخاطر وإتاحة البيانات للجهات التنظيمية.
وفي الأسابيع الأخيرة، واجهت المحادثات عقبات بشأن المدى الذي ينبغي السماح للشركات بالتنظيم الذاتي فيه.
وقال براندو بينيفي، أحد اثنين من المشرعين في البرلمان الأوروبي الذين يقودون المفاوضات بشأن القوانين، لرويترز: “إن الدراما المفهومة حول إقالة ألتمان من OpenAI وانضمامه الآن إلى Microsoft (MSFT.O) تظهر لنا أنه لا يمكننا الاعتماد على اتفاقيات طوعية توسط فيها قادة ذوو رؤية”. .
“يجب أن تكون القواعد التنظيمية، خاصة عند التعامل مع أقوى نماذج الذكاء الاصطناعي، سليمة وشفافة وقابلة للتنفيذ لحماية مجتمعنا.”
وذكرت وكالة رويترز يوم الاثنين أن فرنسا وألمانيا وإيطاليا توصلت إلى اتفاق بشأن كيفية تنظيم الذكاء الاصطناعي، وهي خطوة من المتوقع أن تؤدي إلى تسريع المفاوضات على المستوى الأوروبي.
وتدعم الحكومات الثلاث “التنظيم الذاتي الإلزامي من خلال مدونات قواعد السلوك” لأولئك الذين يستخدمون نماذج الذكاء الاصطناعي التوليدية، لكن بعض الخبراء قالوا إن هذا لن يكون كافيا.
وقالت ألكسندرا فان هوفلين، وزيرة الرقمنة الهولندية، لرويترز إن ملحمة OpenAI تؤكد الحاجة إلى قواعد صارمة.
وقالت: “إن الافتقار إلى الشفافية والاعتماد على عدد قليل من الشركات المؤثرة في رأيي يؤكد بوضوح ضرورة التنظيم”.
وفي الوقت نفسه، كتب غاري ماركوس، خبير الذكاء الاصطناعي في جامعة نيويورك، على منصة التواصل الاجتماعي X: “لا يمكننا أن نثق حقًا في الشركات لتنظيم الذكاء الاصطناعي ذاتيًا حيث يمكن أن تتعارض حتى إدارتها الداخلية بشكل عميق.
“من فضلك لا تفسد قانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي؛ فنحن بحاجة إليه الآن أكثر من أي وقت مضى.”
(تغطية صحفية مارتن كولتر وسوبانثا موخرجي – إعداد محمد للنشرة العربية – إعداد محمد للنشرة العربية) تحرير سوزان فينتون
معاييرنا: مبادئ الثقة في طومسون رويترز.
اترك ردك