في الاندفاع العالمي لتنظيم الذكاء الاصطناعي ، تستعد أوروبا لتكون رائدة

أذهل التطور المذهل للذكاء الاصطناعي المستخدمين من خلال تأليف الموسيقى وإنشاء الصور وكتابة المقالات ، مع إثارة المخاوف بشأن تداعياته.. حتى مسؤولي الاتحاد الأوروبي الذين يعملون على قواعد رائدة للتحكم في التكنولوجيا الناشئة فوجئوا بالارتفاع السريع للذكاء الاصطناعي.

اقترحت الكتلة المكونة من 27 دولة أول قواعد الذكاء الاصطناعي في العالم الغربي قبل عامين ، كان التركيز على كبح جماح التطبيقات المحفوفة بالمخاطر ولكنها ضيقة التركيز. بالكاد تم ذكر أنظمة الذكاء الاصطناعي للأغراض العامة مثل روبوتات المحادثة. نظر المشرعون العاملون على قانون الذكاء الاصطناعي فيما إذا كانوا سيضمونهم لكنهم لم يكونوا متأكدين من كيفية ذلك ، أو حتى إذا كان ذلك ضروريًا.

قال دراغوس تودوراتش ، العضو الروماني في البرلمان الأوروبي الذي شارك في قيادة هذا الإجراء: “ثم انفجر نوع من الازدهار في ChatGPT”. “إذا كان لا يزال هناك من يشك في ما إذا كنا بحاجة إلى شيء على الإطلاق ، أعتقد أن الشك قد تلاشى بسرعة.”

الافراج عن ChatGPT في العام الماضي استحوذت على انتباه العالم بسبب قدرتها على توليد ردود شبيهة بالبشر بناءً على ما تعلمته من مسح كميات هائلة من المواد عبر الإنترنت. مع ظهور مخاوف، تحرك المشرعون الأوروبيون بسرعة في الأسابيع الأخيرة لإضافة لغة إلى أنظمة الذكاء الاصطناعي العامة حيث وضعوا اللمسات الأخيرة على التشريع.

يمكن أن يصبح قانون الذكاء الاصطناعي للاتحاد الأوروبي هو المعيار العالمي الفعلي للذكاء الاصطناعي ، حيث من المحتمل أن تقرر الشركات والمؤسسات أن الحجم الهائل للسوق الموحدة للكتلة سيجعل الامتثال أسهل من تطوير منتجات مختلفة لمناطق مختلفة.

“أوروبا هي أول كتلة إقليمية تحاول بشكل كبير تنظيم الذكاء الاصطناعيقالت سارة تشاندر ، كبيرة مستشاري السياسات في مجموعة الحقوق الرقمية EDRi ، إن هذا يمثل تحديًا كبيرًا بالنظر إلى النطاق الواسع للأنظمة التي يمكن أن يغطيها المصطلح الواسع “الذكاء الاصطناعي”.

تسعى السلطات في جميع أنحاء العالم جاهدة لمعرفة كيفية التحكم في التكنولوجيا سريعة التطور للتأكد من أنها تحسن حياة الناس دون تهديد حقوقهم أو سلامتهم. يهتم المنظمون بالمخاطر الأخلاقية والمجتمعية الجديدة التي يطرحها ChatGPT وأنظمة الذكاء الاصطناعي الأخرى ذات الأغراض العامة ، والتي يمكن أن تحول الحياة اليومية من الوظائف والتعليم لحقوق النشر والخصوصية.

البيت الأبيض جلب مؤخرا رؤساء شركات التكنولوجيا التي تعمل على الذكاء الاصطناعي بما في ذلك Microsoft و Google و ChatGPT منشئ OpenAI لمناقشة المخاطر ، بينما حذرت لجنة التجارة الفيدرالية من أنها لن تتردد في اتخاذ إجراءات صارمة.

أصدرت الصين مسودة لوائح تقضي بإجراء تقييمات أمنية لأي منتجات تستخدم أنظمة الذكاء الاصطناعي التوليفية مثل ChatGPT. فتحت هيئة مراقبة المنافسة البريطانية مراجعة لسوق الذكاء الاصطناعي، بينما حظرت إيطاليا لفترة وجيزة ChatGPT بسبب انتهاك الخصوصية.

من المتوقع أن تتم الموافقة على لوائح الاتحاد الأوروبي الشاملة – التي تغطي أي مزود لخدمات أو منتجات الذكاء الاصطناعي – من قبل لجنة البرلمان الأوروبي يوم الخميس ، ثم التوجه إلى المفاوضات بين الدول الأعضاء البالغ عددها 27 دولة والبرلمان والمفوضية التنفيذية للاتحاد الأوروبي.

القواعد الأوروبية التي تؤثر على بقية العالم – ما يسمى بتأثير بروكسل – ظهرت سابقًا بعد أن شدد الاتحاد الأوروبي خصوصية البيانات وكابلات شحن الهاتف المشتركة المطلوبة، على الرغم من أن هذه الجهود قد تعرضت لانتقادات لخنق الابتكار.

يمكن أن تكون المواقف مختلفة هذه المرة. دعا قادة التكنولوجيا ، بما في ذلك Elon Musk والمؤسس المشارك لشركة Apple ، ستيف وزنياك ، إلى توقف لمدة ستة أشهر للنظر في المخاطر.

أعرب جيفري هينتون ، عالم الكمبيوتر المعروف باسم “الأب الروحي للذكاء الاصطناعي” ، وزميله الرائد في مجال الذكاء الاصطناعي ، يوشوا بنجيو ، عن مخاوفهما الأسبوع الماضي حول تطوير الذكاء الاصطناعي غير الخاضع للرقابة.

قال تودوراش إن مثل هذه التحذيرات تظهر أن تحرك الاتحاد الأوروبي لبدء وضع قواعد الذكاء الاصطناعي في عام 2021 كان “الخيار الصحيح”.

Google ، التي استجابت لـ ChatGPT من خلال برنامج الدردشة Bard الخاص بها ويتم طرح أدوات الذكاء الاصطناعي ، ورفض التعليق. أخبرت الشركة الاتحاد الأوروبي أن “الذكاء الاصطناعي مهم جدًا لعدم التنظيم”.

مايكروسوفت ، داعم لـ OpenAI، لم يستجب لطلب للتعليق. وقد رحبت بجهود الاتحاد الأوروبي باعتبارها خطوة مهمة “نحو جعل الذكاء الاصطناعي الموثوق به هو المعيار في أوروبا وحول العالم.”

قالت ميرا موراتي ، كبيرة مسؤولي التكنولوجيا في شركة OpenAI ، في مقابلة الشهر الماضي أنها تعتقد أن الحكومات يجب أن تشارك في تنظيم تكنولوجيا الذكاء الاصطناعي.

لكنه سئل عما إذا كانت بعض أدوات أوبن إيه آي يجب أن تصنف على أنها تنطوي على مخاطر أعلى ، في سياق القواعد الأوروبية المقترحة ، قالت إنها “دقيقة للغاية.”

وقالت: “يعتمد الأمر نوعًا ما على المكان الذي تطبق فيه التكنولوجيا” ، مستشهدة على سبيل المثال بـ “حالة استخدام طبي شديدة الخطورة أو حالة استخدام قانوني” مقابل تطبيق محاسبة أو إعلان.

يخطط الرئيس التنفيذي لشركة OpenAI Sam Altman للتوقف في بروكسل ومدن أوروبية أخرى هذا الشهر في جولة حول العالم للتحدث عن التكنولوجيا مع المستخدمين والمطورين.

ستتطلب الأحكام المضافة مؤخرًا إلى قانون الذكاء الاصطناعي في الاتحاد الأوروبي نماذج الذكاء الاصطناعي “التأسيسية” للكشف عن مواد حقوق الطبع والنشر المستخدمة لتدريب الأنظمة ، وفقًا لمسودة جزئية حديثة للتشريع حصلت عليها وكالة Associated Press.

نماذج الأساس ، المعروفة أيضًا باسم نماذج اللغات الكبيرة ، هي فئة فرعية من الذكاء الاصطناعي للأغراض العامة التي تتضمن أنظمة مثل ChatGPT. يتم تدريب الخوارزميات الخاصة بهم على مجموعات كبيرة من المعلومات عبر الإنترنت، مثل منشورات المدونات والكتب الرقمية والمقالات العلمية وأغاني البوب.

قال تودوراش: “عليك بذل جهد كبير لتوثيق المواد المحمية بحقوق الطبع والنشر التي تستخدمها في تدريب الخوارزمية” ، مما يمهد الطريق للفنانين والكتاب ومنشئي المحتوى الآخرين لطلب التعويض.

يتعين على المسؤولين الذين يضعون لوائح الذكاء الاصطناعي أن يوازنوا بين المخاطر التي تشكلها التكنولوجيا مع الفوائد التحويلية التي تعد بها.

قال تشاندر من EDR ، إن شركات التكنولوجيا الكبرى التي تطور أنظمة ذكاء اصطناعي والوزارات الوطنية الأوروبية التي تتطلع إلى نشرها “تسعى للحد من وصول المنظمين” ، بينما تضغط مجموعات المجتمع المدني من أجل مزيد من المساءلة.

وقالت: “نريد مزيدًا من المعلومات حول كيفية تطوير هذه الأنظمة – مستويات الموارد البيئية والاقتصادية الموضوعة فيها – ولكن أيضًا كيف وأين يتم استخدام هذه الأنظمة حتى نتمكن من تحديها بشكل فعال”.

بموجب نهج الاتحاد الأوروبي القائم على المخاطر ، فإن استخدامات الذكاء الاصطناعي التي تهدد سلامة الأشخاص أو حقوقهم تواجه ضوابط صارمة.

التعرف على الوجه عن بعد من المتوقع أن يتم حظره. وكذلك أنظمة “التقييم الاجتماعي” الحكومية التي تحكم على الناس بناءً على سلوكهم. “الكشط” العشوائي للصور من الإنترنت المستخدمة في المطابقة البيومترية والتعرف على الوجه هو أيضًا أمر محظور.

الشرطة التنبؤية وتقنية التعرف على المشاعر ، بصرف النظر عن الاستخدامات العلاجية أو الطبية ، خارجة أيضًا.

قد تؤدي الانتهاكات إلى غرامات تصل إلى 6٪ من الإيرادات السنوية العالمية للشركة.

حتى بعد الحصول على الموافقة النهائية ، المتوقعة بحلول نهاية العام أو أوائل عام 2024 على أبعد تقدير ، لن يسري قانون الذكاء الاصطناعي على الفور. ستكون هناك فترة سماح للشركات والمؤسسات لمعرفة كيفية اعتماد القواعد الجديدة.

قال فريدريكو أوليفيرا دا سيلفا ، كبير المسؤولين القانونيين في مجموعة المستهلكين الأوروبية BEUC ، إنه من المحتمل أن تدفع الصناعة لمزيد من الوقت من خلال الجدل بأن النسخة النهائية لقانون الذكاء الاصطناعي تذهب إلى أبعد من الاقتراح الأصلي.

يمكن أن يجادلوا بأنه “بدلاً من عام ونصف إلى عامين ، نحتاج إلى عامين إلى ثلاثة أعوام” ، قال.

وأشار إلى أن ChatGPT تم إطلاقه منذ ستة أشهر فقط ، وقد طرح بالفعل مجموعة من المشكلات والفوائد في ذلك الوقت.

إذا لم يدخل قانون الذكاء الاصطناعي حيز التنفيذ بالكامل لسنوات ، “ماذا سيحدث في هذه السنوات الأربع؟” قال دا سيلفا. “هذا هو مصدر قلقنا حقًا ، ولهذا السبب نطلب من السلطات أن تكون على رأس ذلك ، فقط للتركيز حقًا على هذه التكنولوجيا.”

___

ساهم الكاتب مات أوبراين في مجال التكنولوجيا في بروفيدنس ، رود آيلاند.