روما (AP) – إيطاليا تحظر مؤقتًا برنامج الذكاء الاصطناعي ChatGPT قالت هيئة مراقبة الخصوصية التابعة للحكومة يوم الجمعة في أعقاب خرق البيانات لأنها تحقق في انتهاك محتمل لقواعد حماية البيانات الصارمة في الاتحاد الأوروبي.
قالت هيئة حماية البيانات الإيطالية إنها تتخذ إجراءً مؤقتًا “حتى تحترم ChatGPT الخصوصية” ، بما في ذلك تقييد الشركة مؤقتًا من معالجة بيانات المستخدمين الإيطاليين.
قالت شركة OpenAI ومقرها الولايات المتحدة ، والتي طورت برنامج الدردشة الآلي ، في وقت متأخر من ليلة الجمعة ، إنها قامت بتعطيل ChatGPT للمستخدمين الإيطاليين بناءً على طلب الحكومة. قالت الشركة إنها تعتقد أن ممارساتها تتوافق مع قوانين الخصوصية الأوروبية وتأمل في إتاحة ChatGPT مرة أخرى قريبًا.
بينما منعت بعض المدارس والجامعات العامة حول العالم ChatGPT من شبكاتها المحلية قال ألب توكر ، مدير مجموعة المناصرة NetBlocks ، التي تراقب الوصول إلى الإنترنت في جميع أنحاء العالم ، بشأن مخاوف انتحال الطلاب ، أن الإجراء الإيطالي هو “أول تقييد على مستوى الدولة لمنصة ذكاء اصطناعي سائدة من قبل ديمقراطية”.
يؤثر التقييد على إصدار الويب من ChatGPT ، والذي يستخدم بشكل شائع كمساعد للكتابة ، ولكن من غير المحتمل أن يؤثر على تطبيقات البرامج من الشركات التي لديها بالفعل تراخيص مع OpenAI لاستخدام نفس التقنية التي تقود روبوت الدردشة ، مثل محرك بحث Bing من Microsoft.
إن أنظمة الذكاء الاصطناعي التي تشغل روبوتات المحادثة هذه ، والمعروفة باسم نماذج اللغة الكبيرة ، قادرة على محاكاة أساليب الكتابة البشرية استنادًا إلى الكم الهائل من الكتب الرقمية والكتابات عبر الإنترنت التي استوعبوها.
قالت هيئة الرقابة الإيطالية إن شركة OpenAI يجب أن تبلغ في غضون 20 يومًا عن الإجراءات التي اتخذتها لضمان خصوصية بيانات المستخدمين أو مواجهة غرامة تصل إلى 20 مليون يورو (ما يقرب من 22 مليون دولار) أو 4٪ من الإيرادات العالمية السنوية.
يستشهد بيان الوكالة باللائحة العامة لحماية البيانات في الاتحاد الأوروبي وأشار إلى خرق حديث للبيانات يتضمن “محادثات المستخدمين” في ChatGPT ومعلومات حول مدفوعات المشتركين.
أعلنت شركة OpenAI في وقت سابق أنها اضطرت إلى إيقاف تشغيل ChatGPT في 20 مارس لإصلاح خطأ سمح لبعض الأشخاص برؤية عناوين أو سطور الموضوع الخاصة بسجل دردشة المستخدمين الآخرين.
وقالت الشركة: “توصل تحقيقنا أيضًا إلى أن 1.2٪ من مستخدمي ChatGPT Plus ربما يكون قد تم الكشف عن بيانات شخصية لمستخدم آخر”. “نعتقد أن عدد المستخدمين الذين تم الكشف عن بياناتهم بالفعل لشخص آخر منخفض للغاية وقد تواصلنا مع أولئك الذين قد يتأثرون بذلك.”
تساءلت هيئة مراقبة الخصوصية الإيطالية ، المعروفة باسم Garante ، أيضًا عما إذا كان لدى OpenAI مبرر قانوني “لجمعها ومعالجتها على نطاق واسع للبيانات الشخصية” المستخدمة لتدريب خوارزميات المنصة. وقالت إن ChatGPT يمكنها أحيانًا إنشاء – وتخزين – معلومات خاطئة عن الأفراد.
أخيرًا ، أشار إلى عدم وجود نظام للتحقق من أعمار المستخدمين ، مما يعرض الأطفال لردود “غير مناسبة تمامًا لأعمارهم ووعيهم”.
قالت شركة OpenAI رداً على ذلك إنها تعمل “لتقليل البيانات الشخصية في تدريب أنظمة الذكاء الاصطناعي لدينا مثل ChatGPT لأننا نريد أن يتعرف الذكاء الاصطناعي لدينا على العالم ، وليس الأفراد”.
وقالت الشركة: “نعتقد أيضًا أن تنظيم الذكاء الاصطناعي ضروري – لذلك نتطلع إلى العمل عن كثب مع Garante وتثقيفهم حول كيفية بناء أنظمتنا واستخدامها”.
تأتي خطوة هيئة الرقابة الإيطالية في الوقت الذي تتزايد فيه المخاوف بشأن طفرة الذكاء الاصطناعي. نشرت مجموعة من العلماء وقادة صناعة التكنولوجيا رسالة يوم الأربعاء تدعو شركات مثل OpenAI إلى إيقاف تطوير نماذج ذكاء اصطناعي أكثر قوة. حتى الخريف لإعطاء الوقت للمجتمع لتقييم المخاطر.
وقال رئيس وكالة مراقبة الخصوصية الإيطالية للتلفزيون الإيطالي الرسمي مساء الجمعة إنه كان أحد الذين وقعوا على الاستئناف. قال باسكوال ستانزيوني إنه فعل ذلك لأنه “ليس من الواضح ما هي الأهداف التي يتم السعي وراءها” في نهاية المطاف من قبل أولئك الذين يطورون الذكاء الاصطناعي.
قال ستانزيوني إذا كان ينبغي للذكاء الاصطناعي “المساس” بـ “حق تقرير المصير” ، فهذا أمر خطير للغاية. كما وصف عدم وجود فلاتر للمستخدمين الذين تقل أعمارهم عن 13 عامًا بأنه “خطير نوعًا ما”.
أعلن الرئيس التنفيذي لشركة OpenAI ومقرها سان فرانسيسكو ، سام التمان ، هذا الأسبوع أنه سيشرع في رحلة ست قارات في مايو للتحدث عن التكنولوجيا مع المستخدمين والمطورين. يتضمن ذلك توقفًا مخططًا له في بروكسل ، حيث كان المشرعون في الاتحاد الأوروبي يتفاوضون بشأن قواعد جديدة شاملة للحد من أدوات الذكاء الاصطناعي عالية المخاطر ، بالإضافة إلى زيارات إلى مدريد وميونيخ ولندن وباريس.
دعت مجموعة المستهلكين الأوروبية BEUC يوم الخميس سلطات الاتحاد الأوروبي والدول الأعضاء في الكتلة البالغ عددها 27 دولة للتحقيق في ChatGPT وروبوتات الدردشة المماثلة التي تعمل بالذكاء الاصطناعي. قالت BEUC إن قانون الذكاء الاصطناعي في الاتحاد الأوروبي قد يستغرق سنوات ، لذلك تحتاج السلطات إلى التصرف بشكل أسرع لحماية المستهلكين من المخاطر المحتملة.
قالت نائبة المدير العام أورسولا باشل: “في غضون بضعة أشهر فقط ، شهدنا انتشارًا هائلاً لـ ChatGPT ، وهذه ليست سوى البداية”.
انتظار قانون الاتحاد الأوروبي للذكاء الاصطناعي “ليس جيدًا بما يكفي لأن هناك مخاوف جدية تتزايد حول كيفية قيام ChatGPT وروبوتات المحادثة المماثلة بخداع الناس والتلاعب بهم.”
___
أفاد أوبراين من بروفيدنس ، رود آيلاند. ساهم كلفن تشان ، كاتب الأعمال في AP Business من لندن.
اترك ردك