دبلن ، 20 أبريل (رويترز) – يحتاج الذكاء الاصطناعي التوليدي ، مثل ChatGPT التابع لشركة OpenAI ، إلى تنظيم ، لكن يجب على الهيئات الحاكمة معرفة كيفية القيام بذلك بشكل صحيح قبل التسرع في المحظورات التي “لن تنجح حقًا” ، وفقًا لبيانات أيرلندا وقال رئيس الحماية يوم الخميس.
وقالت هيلين ديكسون ، مفوضة حماية البيانات الأيرلندية (DPC) في مؤتمر بلومبرج ، “يجب أن يتم تنظيمها وهي تتعلق بمعرفة كيفية تنظيمها بشكل صحيح” ، قائلة إن النقاش امتد إلى الآلاف من مكافئات ChatGPT.
“بالنسبة إلى لجنة حماية البيانات الأيرلندية ، حيث نحاول فهم المزيد حول التكنولوجيا ، ونماذج اللغة الكبيرة ، وحول مصدر بيانات التدريب.”
“لذلك أعتقد أن هذه الأيام الأولى ، ولكن حان الوقت لإجراء تلك المحادثات الآن بدلاً من التسرع في المحظورات التي لن تصمد حقًا.”
شكلت الهيئة التي توحد مراقبي الخصوصية الوطنيين في أوروبا الأسبوع الماضي فريق عمل على ChatGPT بعد خطوة أحادية الجانب من جانب إيطاليا لحظر روبوت المحادثة مؤقتًا الذي يزداد شعبيته بسرعة.
وقالت هيئة الرقابة الإيطالية يوم الثلاثاء إنها مستعدة للسماح بعودة ChatGPT في نهاية أبريل إذا اتخذت الشركة المصنعة OpenAI “خطوات مفيدة” لمعالجة مخاوف الوكالة. قامت شركة OpenAI المدعومة من شركة Microsoft (MSFT.O) بإيقاف تشغيلها في إيطاليا الشهر الماضي.
في حين أن DPC الأيرلندية هي الجهة التنظيمية الرئيسية في الاتحاد الأوروبي للعديد من أكبر شركات التكنولوجيا في العالم نظرًا لموقعها الرئيسي في الاتحاد الأوروبي في أيرلندا ، إلا أنها لا تتمتع بنفس السلطة على شركة OpenAI التي ليس لها مكاتب في الكتلة.
أضاف ديكسون أن المشكلات المتعلقة بالذكاء الاصطناعي التوليدي تمتد إلى ما هو أبعد من حماية البيانات وتشمل حقوق النشر ومخاوف التشهير.
وقالت: “نريد أيضًا المساهمة في مناقشات أوسع حول المخاطر وحول مجالات القانون الأخرى التي تتلاقى في الذكاء الاصطناعي”.
معاييرنا: مبادئ الثقة في Thomson Reuters.
اترك ردك