بروكسل (رويترز) – قالت الهيئة التي توحد هيئات مراقبة الخصوصية الوطنية في أوروبا يوم الخميس إنها شكلت فريق عمل بشأن ChatGPT ، وهي خطوة أولى مهمة على الأرجح نحو سياسة مشتركة لوضع قواعد الخصوصية على الذكاء الاصطناعي.
تأتي الخطوة التي اتخذها مجلس حماية البيانات الأوروبي (EDPB) في أعقاب تحرك من جانب واحد من جانب إيطاليا الشهر الماضي للحد من ChatGPT – وهو موقف قال مفوض ألمانيا لحماية البيانات إنه يمكن اتباعه في أكبر اقتصاد في أوروبا. قالت وكالة AEPD الإسبانية يوم الخميس إنها ستبدأ أيضًا تحقيقًا أوليًا في انتهاكات البيانات المحتملة من قبل ChatGPT.
نما برنامج ChatGPT ، وهو برنامج ذكاء اصطناعي جذب انتباه الجمهور لقدرته على كتابة إجابات سريعة لمجموعة واسعة من الاستفسارات ، ليصبح أسرع تطبيق للمستهلكين نموًا في التاريخ مع أكثر من 100 مليون مستخدم نشط شهريًا ، مع طرح أسئلة حول التهديدات قد يشكل ذلك خطرًا على الأمان والخصوصية والوظائف.
كما أعرب الخبراء والحكومة الأمريكية والعديد من الحكومات الأوروبية الأخرى عن قلقهم بشأن النمو السريع لاعتماد ChatGPT ومنتجات الذكاء الاصطناعي المماثلة.
وقال البيان: “ناقش أعضاء EDPB إجراءات الإنفاذ الأخيرة التي اتخذتها هيئة حماية البيانات الإيطالية ضد OpenAI بشأن خدمة Chat GPT”.
“قرر EDPB إطلاق فريق عمل مخصص لتعزيز التعاون وتبادل المعلومات حول إجراءات الإنفاذ المحتملة التي تقوم بها سلطات حماية البيانات.”
قال مصدر في إحدى الهيئات الرقابية الوطنية ، الذي طلب عدم الكشف عن هويته لأنهم غير مخولين بالتحدث إلى وسائل الإعلام ، إن الدول الأعضاء تأمل في مواءمة مواقفها السياسية لكن هذا سيستغرق وقتًا.
وقال المصدر إن الدول الأعضاء لا تسعى إلى معاقبة أو وضع قواعد من شأنها أن تؤثر على شركة OpenAI مالك ChatGPT المدعوم من شركة مايكروسوفت ، بل تسعى إلى وضع سياسات عامة “شفافة”.
وقالوا إن من بين الحاضرين في اجتماع الخميس خبراء في السياسة قدموا الآراء وتبادلوا الأفكار ، بدلاً من أن يكونوا صناع قرار.
EDPB هي هيئة مستقلة تشرف على قواعد حماية البيانات في الاتحاد الأوروبي ، وتتألف من هيئات مراقبة حماية البيانات الوطنية.
ولم يتسن الاتصال بالمنظمة للتعليق.
تمت إضافة مناقشة ChatGPT إلى جدول أعمال الهيئة بعد طلب من إسبانيا لمناقشة الأمر في وقت سابق من هذا الأسبوع.
معاييرنا: مبادئ الثقة في Thomson Reuters.
اترك ردك