لندن 3 نوفمبر (رويترز) – دافع رئيس الوزراء البريطاني ريشي سوناك عن سلسلة من الاتفاقيات التاريخية بعد استضافته أول قمة للسلامة في مجال الذكاء الاصطناعي، لكن وضع خطة عالمية للإشراف على التكنولوجيا لا يزال بعيد المنال.
على مدار يومين من المحادثات بين قادة العالم ومديري الأعمال والباحثين، التقى الرؤساء التنفيذيون للتكنولوجيا مثل إيلون ماسك وسام ألتمان من OpenAI مع أمثال نائبة الرئيس الأمريكي كامالا هاريس ورئيسة المفوضية الأوروبية أورسولا فون دير لاين لمناقشة التنظيم المستقبلي للذكاء الاصطناعي. .
فقد وقع زعماء من 28 دولة ـ بما في ذلك الصين ـ على إعلان بلتشلي، وهو بيان مشترك يعترف بمخاطر هذه التكنولوجيا؛ وأعلنت كل من الولايات المتحدة وبريطانيا عن خطط لإطلاق معاهدهما الخاصة بسلامة الذكاء الاصطناعي؛ وتم الإعلان عن عقد قمتين أخريين في كوريا الجنوبية وفرنسا العام المقبل.
ولكن على الرغم من التوصل إلى بعض الإجماع حول الحاجة إلى تنظيم الذكاء الاصطناعي، إلا أن الخلافات لا تزال قائمة حول كيفية حدوث ذلك على وجه التحديد ــ ومن سيقود مثل هذه الجهود.
أصبحت المخاطر المتعلقة بالذكاء الاصطناعي سريع التطور أولوية عالية بشكل متزايد لصانعي السياسات منذ أن أطلقت Open AI (MSFT.O) المدعومة من Microsoft ChatGPT للجمهور العام الماضي.
إن قدرة روبوت الدردشة غير المسبوقة على الاستجابة للمطالبات بطلاقة تشبه ما يفعله الإنسان، دفعت بعض الخبراء إلى الدعوة إلى التوقف مؤقتًا في تطوير مثل هذه الأنظمة، محذرين من أنها قد تحصل على الاستقلالية وتهديد البشرية.
وتحدث سوناك عن “امتيازه ومتحمسه” لاستضافة ماسك مؤسس تيسلا، لكن المشرعين الأوروبيين حذروا من احتفاظ عدد صغير من الشركات في دولة واحدة، الولايات المتحدة، بقدر كبير للغاية من التكنولوجيا والبيانات.
وقال وزير الاقتصاد والمالية الفرنسي برونو لومير للصحفيين: “إن وجود دولة واحدة تمتلك كل التقنيات، وجميع الشركات الخاصة، وجميع الأجهزة، وجميع المهارات، سيكون بمثابة فشل لنا جميعًا”.
كما ابتعدت المملكة المتحدة عن الاتحاد الأوروبي من خلال اقتراح نهج خفيف لتنظيم الذكاء الاصطناعي، على النقيض من قانون الذكاء الاصطناعي الأوروبي، الذي يقترب من الانتهاء منه وسيلزم مطوري ما يعتبر تطبيقات “عالية المخاطر” بضوابط أكثر صرامة.
وقالت فيرا جوروفا، نائبة رئيس المفوضية الأوروبية: “لقد جئت إلى هنا للترويج لقانون الذكاء الاصطناعي الخاص بنا”.
وقالت جوروفا إنها لا تتوقع أن تنسخ الدول الأخرى قوانين الكتلة بالكامل، لكن هناك حاجة إلى بعض الاتفاق على القواعد العالمية.
وقالت: “إذا لم يكن العالم الديمقراطي صانعاً للقواعد، وإذا لم نصبح نحن متخذي القواعد، فسوف نخسر المعركة”.
وقال الحاضرون إنهم أثناء عرض صورة للوحدة
الكتل الكبرى الثلاثة الحاضرة – الولايات المتحدة، والاتحاد الأوروبي،
والصين – حاولت تأكيد هيمنتها.
اقترح البعض أن هاريس تفوقت على سوناك عندما أعلنت الحكومة الأمريكية عن معهدها الخاص لسلامة الذكاء الاصطناعي – تمامًا كما فعلت بريطانيا قبل أسبوع – وألقت خطابًا في لندن سلطت فيه الضوء على مخاطر التكنولوجيا على المدى القصير، على عكس تركيز القمة على التهديدات الوجودية.
وقال نايجل تون، الرئيس التنفيذي لشركة Graphcore البريطانية للذكاء الاصطناعي: “كان من الرائع أنه في الوقت الذي أعلنا فيه عن معهدنا لسلامة الذكاء الاصطناعي، أعلن الأمريكيون عن معهدهم”.
وقد اعتبر المسؤولون البريطانيون حضور الصين في القمة وقرارها بالتوقيع على “إعلان بلتشلي” بمثابة نجاح.
وقال نائب وزير العلوم والتكنولوجيا الصيني إن بلاده مستعدة للعمل مع جميع الأطراف بشأن حوكمة الذكاء الاصطناعي.
وفي إشارة إلى التوتر بين الصين والغرب، قال وو تشاوهوي للمندوبين: “الدول، بغض النظر عن حجمها وحجمها، لها حقوق متساوية في تطوير واستخدام الذكاء الاصطناعي”.
وقالت الوزارة إن الوزير الصيني شارك في المائدة المستديرة الوزارية يوم الخميس. لكنه لم يشارك في الفعاليات العامة في اليوم الثاني.
كان الموضوع المتكرر للمناقشات خلف الأبواب المغلقة، والذي أبرزه عدد من الحاضرين، هو المخاطر المحتملة للذكاء الاصطناعي مفتوح المصدر، والذي يمنح أفراد الجمهور حرية الوصول إلى تجربة الكود الكامن وراء التكنولوجيا.
وحذر بعض الخبراء من أن النماذج مفتوحة المصدر يمكن أن يستخدمها الإرهابيون لصنع أسلحة كيميائية، أو حتى إنشاء ذكاء فائق خارج عن سيطرة البشر.
وفي حديثه مع سوناك في حدث مباشر في لندن يوم الخميس، قال ماسك: “سيصل الأمر إلى النقطة التي يكون لديك فيها ذكاء اصطناعي مفتوح المصدر سيبدأ في الاقتراب من مستوى الذكاء البشري، أو ربما يتجاوزه”. تعرف تمامًا ما يجب فعله حيال ذلك.”
وقال يوشوا بنجيو، أحد رواد الذكاء الاصطناعي المعين لقيادة تقرير “حالة العلم” الذي تم إعداده كجزء من إعلان بلتشلي، لرويترز إن مخاطر الذكاء الاصطناعي مفتوح المصدر تمثل أولوية قصوى.
وقال: “يمكن وضعها في أيدي جهات فاعلة سيئة، ويمكن تعديلها لأغراض خبيثة. لا يمكنك الحصول على إصدار مفتوح المصدر لهذه الأنظمة القوية، مع الاستمرار في حماية الجمهور باستخدام حواجز الحماية المناسبة”.
(تقرير مارتن كولتر وبول ساندل – إعداد محمد للنشرة العربية) تحرير إضافي بواسطة مات سكوفهام ولويز هيفينز
معاييرنا: مبادئ الثقة في طومسون رويترز.
اترك ردك