يقوم المنظمون بإزالة الغبار عن كتب القواعد للتعامل مع الذكاء الاصطناعي التوليدي مثل ChatGPT

  • يتسابق حراس المراقبة لمواكبة الانتشار الشامل للذكاء الاصطناعي
  • في انتظار القوانين الجديدة ، يقوم المنظمون بتكييف القوانين الحالية
  • تواجه الأدوات التوليدية الخصوصية وحقوق النشر وتحديات أخرى

لندن / ستوكهولم (رويترز) – مع تسارع السباق لتطوير خدمات ذكاء اصطناعي أكثر قوة مثل ChatGPT ، يعتمد بعض المنظمين على قوانين قديمة للسيطرة على تقنية يمكن أن تقلب الطريقة التي تعمل بها المجتمعات والشركات.

يحتل الاتحاد الأوروبي موقع الصدارة في صياغة قواعد جديدة للذكاء الاصطناعي يمكن أن تضع معيارًا عالميًا لمعالجة مخاوف الخصوصية والسلامة التي نشأت مع التقدم السريع في تقنية الذكاء الاصطناعي التوليدية وراء ChatGPT الخاصة بـ OpenAI.

لكن التشريع سيستغرق عدة سنوات حتى يتم تطبيقه.

قال ماسيميلانو سيمناغي ، خبير حوكمة البيانات الأوروبي في شركة BIP الاستشارية: “في غياب اللوائح ، فإن الشيء الوحيد الذي يمكن للحكومات فعله هو تطبيق القواعد الحالية”.

“إذا كان الأمر يتعلق بحماية البيانات الشخصية ، فإنهم يطبقون قوانين حماية البيانات ، وإذا كان يمثل تهديدًا لسلامة الأشخاص ، فهناك لوائح لم يتم تحديدها على وجه التحديد للذكاء الاصطناعي ، لكنها لا تزال سارية.”

في أبريل ، شكل مراقبو الخصوصية الوطنيون في أوروبا فريق عمل لمعالجة المشكلات مع ChatGPT بعد أن قام المنظم الإيطالي Garante بإيقاف الخدمة ، متهمًا شركة OpenAI بانتهاك اللائحة العامة لحماية البيانات في الاتحاد الأوروبي ، وهو نظام خصوصية واسع النطاق تم سنه في عام 2018.

تمت إعادة ChatGPT بعد أن وافقت الشركة الأمريكية على تثبيت ميزات التحقق من العمر والسماح للمستخدمين الأوروبيين بحظر استخدام معلوماتهم لتدريب نموذج الذكاء الاصطناعي.

وقال مصدر مقرب من جارانتي لرويترز إن الوكالة ستبدأ في فحص أدوات الذكاء الاصطناعي التوليدية الأخرى على نطاق أوسع. كما أطلقت سلطات حماية البيانات في فرنسا وإسبانيا في أبريل تحقيقات في امتثال OpenAI لقوانين الخصوصية.

جلب الخبراء

أصبحت النماذج التوليدية للذكاء الاصطناعي معروفة بارتكاب الأخطاء أو “الهلوسة” ، حيث تنشر معلومات مضللة بيقين غير عادي.

مثل هذه الأخطاء يمكن أن يكون لها عواقب وخيمة. إذا استخدم بنك أو إدارة حكومية الذكاء الاصطناعي لتسريع عملية اتخاذ القرار ، فقد يتم رفض الأفراد بشكل غير عادل للحصول على قروض أو مدفوعات مزايا. توقفت شركات التكنولوجيا الكبرى بما في ذلك Alphabet’s Google (GOOGL.O) و Microsoft Corp (MSFT.O) عن استخدام منتجات الذكاء الاصطناعي التي تعتبر مشبوهًا من الناحية الأخلاقية ، مثل المنتجات المالية.

تهدف الجهات التنظيمية إلى تطبيق القواعد الحالية التي تغطي كل شيء بدءًا من حقوق النشر وخصوصية البيانات إلى مسألتين رئيسيتين: البيانات التي يتم إدخالها في النماذج والمحتوى الذي تنتجه ، وفقًا لستة هيئات تنظيمية وخبراء في الولايات المتحدة وأوروبا.

وقال سوريش فينكاتاسوبرامانيان ، مستشار التكنولوجيا السابق للبيت الأبيض ، إنه يتم تشجيع الوكالات في المنطقتين على “تفسير وإعادة تفسير تفويضاتها”. واستشهد بالتحقيق الذي أجرته لجنة التجارة الفيدرالية الأمريكية (FTC) بشأن خوارزميات الممارسات التمييزية بموجب السلطات التنظيمية الحالية.

في الاتحاد الأوروبي ، ستجبر المقترحات الخاصة بقانون الذكاء الاصطناعي الخاص بالكتلة شركات مثل OpenAI على الكشف عن أي مواد محمية بحقوق الطبع والنشر – مثل الكتب أو الصور الفوتوغرافية – تُستخدم لتدريب نماذجها ، مما يجعلها عرضة للتحديات القانونية.

لن يكون إثبات انتهاك حقوق النشر أمرًا مباشرًا ، وفقًا لسيرجي لاجودينسكي ، أحد السياسيين العديدين المشاركين في صياغة مقترحات الاتحاد الأوروبي.

قال “الأمر أشبه بقراءة مئات الروايات قبل أن تكتب رواياتك”. “إذا نسخت شيئًا ما ونشرته بالفعل ، فهذا شيء واحد. ولكن إذا لم تكن تسرق بشكل مباشر مادة تخص شخصًا آخر ، فلا يهم ما تدربت عليه بنفسك.

التفكير الإبداعي

بدأت هيئة تنظيم البيانات الفرنسية CNIL “التفكير بشكل خلاق” حول كيفية تطبيق القوانين الحالية على الذكاء الاصطناعي ، وفقًا لبرتراند بيلهيز ، رائد التكنولوجيا لديها.

على سبيل المثال ، عادة ما يتم التعامل مع دعاوى التمييز في فرنسا بواسطة Defenseur des Droits (المدافع عن الحقوق). ومع ذلك ، قال إن افتقارها للخبرة في تحيز الذكاء الاصطناعي دفع CNIL إلى أخذ زمام المبادرة في هذه القضية.

وقال لرويترز “نبحث في النطاق الكامل للتأثيرات رغم أن تركيزنا يظل على حماية البيانات والخصوصية.”

تدرس المنظمة استخدام أحد أحكام القانون العام لحماية البيانات (GDPR) الذي يحمي الأفراد من اتخاذ القرار الآلي.

وقال بيلهيس: “في هذه المرحلة ، لا أستطيع أن أقول ما إذا كان ذلك كافياً من الناحية القانونية”. “سوف يستغرق الأمر بعض الوقت لبناء رأي ، وهناك خطر من أن المنظمين المختلفين سوف يتخذون وجهات نظر مختلفة.”

في بريطانيا ، تعد سلطة السلوك المالي واحدة من العديد من الهيئات التنظيمية الحكومية التي تم تكليفها بوضع مبادئ توجيهية جديدة تغطي الذكاء الاصطناعي. وقال متحدث باسم المعهد لرويترز إنه يتشاور مع معهد آلان تورينج في لندن ، إلى جانب مؤسسات قانونية وأكاديمية أخرى ، لتحسين فهمه للتكنولوجيا.

بينما يتكيف المنظمون مع وتيرة التقدم التكنولوجي ، دعا بعض المطلعين على الصناعة إلى مشاركة أكبر مع قادة الشركات.

قال هاري بوروفيك ، المستشار العام في شركة Luminance الناشئة التي تستخدم الذكاء الاصطناعي لمعالجة المستندات القانونية ، لرويترز إن الحوار بين المنظمين والشركات كان “محدودًا” حتى الآن.

وقال “هذا لا يبشر بالخير بشكل خاص فيما يتعلق بالمستقبل”. “يبدو أن الجهات التنظيمية إما بطيئة أو غير راغبة في تنفيذ الأساليب التي من شأنها تحقيق التوازن الصحيح بين حماية المستهلك ونمو الأعمال.”

معاييرنا: مبادئ الثقة في Thomson Reuters.