نيويورك (AP) – يمكن استخدام التصوير بالذكاء الاصطناعي لخلق الفن، جرب الملابس في غرف القياس الافتراضية أو ساعد في تصميم الحملات الإعلانية.
لكن الخبراء يخشون الجانب المظلم من الأدوات التي يسهل الوصول إليها يمكن أن تؤدي إلى تفاقم الأمر الذي يؤذي النساء في المقام الأول: المواد الإباحية المزيفة غير الحسية.
Deepfakes هي مقاطع فيديو وصور تم إنشاؤها رقميًا أو تعديلها باستخدام الذكاء الاصطناعي أو التعلم الآلي. بدأت المواد الإباحية التي تم إنشاؤها باستخدام التكنولوجيا بالانتشار لأول مرة عبر الإنترنت منذ عدة سنوات عندما شارك مستخدم Reddit مقاطع وضعت وجوه المشاهير الإناث على أكتاف الممثلين الإباحيين.
منذ ذلك الحين ، نشر منشئو المحتوى المزيف العميق مقاطع فيديو وصورًا مماثلة تستهدف المؤثرين عبر الإنترنت والصحفيين وغيرهم من أصحاب الملفات الشخصية العامة. توجد آلاف مقاطع الفيديو عبر عدد كبير من مواقع الويب. وقد قدم البعض للمستخدمين الفرصة لإنشاء صورهم الخاصة – مما يسمح أساسًا لأي شخص بتحويل من يرغب إلى تخيلات جنسية دون موافقته ، أو استخدام التكنولوجيا لإلحاق الأذى بشركاء سابقين.
يقول الخبراء إن المشكلة نمت حيث أصبح من الأسهل صنع صور مزيفة عميقة وجذابة بصريًا. ويقولون إن الأمر قد يزداد سوءًا مع تطوير أدوات الذكاء الاصطناعي التوليدية التي يتم تدريبها على مليارات الصور من الإنترنت وتنشر محتوى جديدًا باستخدام البيانات الموجودة.
قال آدم دودج ، مؤسس EndTAB ، وهي مجموعة توفر تدريبات على إساءة استخدام التكنولوجيا ، . “وطالما حدث ذلك ، سيستمر الناس بلا شك … في إساءة استخدام هذه التكنولوجيا لإيذاء الآخرين ، في المقام الأول من خلال العنف الجنسي عبر الإنترنت ، والمواد الإباحية المزيفة والصور العارية المزيفة.”
اختبرت نويل مارتن ، من مدينة بيرث الأسترالية ، هذه الحقيقة. وجدت الفتاة البالغة من العمر 28 عامًا مواد إباحية مزيفة عن نفسها قبل 10 سنوات عندما استخدمت Google يومًا ما بدافع الفضول للبحث عن صورة لها. حتى يومنا هذا ، تقول مارتن إنها لا تعرف من أنشأ الصور المزيفة ، أو مقاطع الفيديو الخاصة بها وهي تمارس الجنس الذي ستجده لاحقًا. تشتبه في أن شخصًا ما التقط صورة على الأرجح على صفحتها على وسائل التواصل الاجتماعي أو في أي مكان آخر وقام بتحويلها إلى مواد إباحية.
مرعوبًا ، اتصل مارتن بمواقع مختلفة لعدد من السنوات في محاولة لإزالة الصور. لم يستجب البعض. قام آخرون بإزالته لكنها سرعان ما عثرت عليه مرة أخرى.
قال مارتن: “لا يمكنك الفوز”. “هذا شيء سيكون موجودًا دائمًا. يبدو الأمر كما لو أنه دمرك إلى الأبد “.
قالت إنه كلما تحدثت ، كلما تفاقمت المشكلة. حتى أن بعض الناس أخبروها أن الطريقة التي ارتدت بها الملابس ونشرت الصور على وسائل التواصل الاجتماعي ساهمت في المضايقة – إلقاء اللوم عليها بشكل أساسي على الصور بدلاً من المبدعين.
في النهاية ، حولت مارتن انتباهها نحو التشريع ، داعيةً إلى قانون وطني في أستراليا من شأنه أن يفرض غرامة على الشركات بقيمة 555 ألف دولار أسترالي (370706 دولارًا أمريكيًا) إذا لم تمتثل لإشعارات الإزالة لمثل هذا المحتوى من منظمي الأمان عبر الإنترنت.
لكن إدارة الإنترنت شبه مستحيلة عندما يكون لدى البلدان قوانينها الخاصة للمحتوى الذي يتم أحيانًا جعله في منتصف الطريق حول العالم. تقول مارتن ، التي تعمل حاليًا محامية وباحثة قانونية في جامعة أستراليا الغربية ، إنها تعتقد أنه يجب السيطرة على المشكلة من خلال نوع من الحلول العالمية.
في غضون ذلك ، تقول بعض نماذج الذكاء الاصطناعي إنها تمنع بالفعل الوصول إلى الصور الصريحة.
تقول شركة OpenAI إنها أزالت المحتوى الصريح من البيانات المستخدمة لتدريب أداة إنشاء الصور DALL-E ، مما يحد من قدرة المستخدمين على إنشاء تلك الأنواع من الصور. تقوم الشركة أيضًا بتصفية الطلبات وتقول إنها تمنع المستخدمين من إنشاء صور AI للمشاهير والسياسيين البارزين. يحظر نموذج Midjourney ، وهو نموذج آخر ، استخدام كلمات رئيسية معينة ويشجع المستخدمين على إبلاغ الوسطاء بالصور التي بها مشكلات.
وفي الوقت نفسه ، أطلقت شركة Stability AI لبدء التشغيل تحديثًا في نوفمبر يلغي القدرة على إنشاء صور صريحة باستخدام منشئ الصور Stable Diffusion. جاءت هذه التغييرات بعد تقارير تفيد بأن بعض المستخدمين كانوا يصنعون صورًا عارية مستوحاة من المشاهير باستخدام التكنولوجيا.
قال المتحدث باسم منظمة العفو الدولية في الاستقرار موتيز بشارة إن المرشح يستخدم مجموعة من الكلمات الرئيسية وتقنيات أخرى مثل التعرف على الصور لاكتشاف العري وإرجاع صورة غير واضحة. لكن من الممكن للمستخدمين التلاعب بالبرنامج وإنشاء ما يريدون منذ أن أصدرت الشركة كودها للجمهور. وقال بشارة إن ترخيص شركة Stability AI “يمتد إلى تطبيقات الطرف الثالث المبنية على Stable Diffusion” ويحظر بشدة “أي إساءة استخدام لأغراض غير قانونية أو غير أخلاقية”.
قامت بعض شركات وسائل التواصل الاجتماعي أيضًا بتشديد قواعدها لتوفير حماية أفضل لمنصاتها من المواد الضارة.
قال TikTok الشهر الماضي إنه يجب تصنيف جميع مقاطع التزييف العميق أو المحتوى الذي تم التلاعب به والذي يُظهر مشاهد واقعية للإشارة إلى أنها مزيفة أو تم تغييرها بطريقة ما ، وأن التزييف العميق للشخصيات الخاصة والشباب لم يعد مسموحًا به. في السابق ، كانت الشركة قد حظرت المحتوى الجنسي الصريح والتزييف العميق الذي يضلل المشاهدين حول أحداث العالم الحقيقي وتسبب الضرر.
كما قامت منصة الألعاب Twitch مؤخرًا بتحديث سياساتها حول الصور المزيفة الواضحة بعد أن تم اكتشاف موقع ويب إباحي مزيف عميق على متصفحه أثناء بث مباشر في أواخر يناير. أظهر الموقع صورًا زائفة لزملائه في Twitch.
وكتبت الشركة في منشور بالمدونة أن Twitch قد حظرت بالفعل عمليات التزييف العميق الصريحة ، ولكنها تعرض الآن لمحة عن مثل هذا المحتوى – حتى لو كان المقصود منه التعبير عن الغضب – “ستتم إزالته وستؤدي إلى فرض تطبيق”. ويعد الترويج للمواد أو إنشائها أو مشاركتها عن قصد أساسًا للحظر الفوري.
حاولت شركات أخرى أيضًا حظر التزييف العميق من منصاتها ، لكن إبعادها يتطلب الاجتهاد.
قالت Apple و Google مؤخرًا إنهما أزالا تطبيقًا من متاجر التطبيقات الخاصة بهما كان يشغّل مقاطع فيديو مزيفة جنسياً لممثلات لتسويق المنتج. لا تنتشر الأبحاث حول الإباحية المزيفة العميقة ، لكن تقريرًا صدر في عام 2019 من قبل شركة DeepTrace Labs للذكاء الاصطناعي وجد أنه تم تسليحها بالكامل تقريبًا ضد النساء وأن الأفراد الأكثر استهدافًا كانوا الممثلات الغربيات ، يليهن مطربو K-pop الكوريون الجنوبيون.
نفس التطبيق الذي تمت إزالته بواسطة Google و Apple كان يعرض إعلانات على منصة Meta ، والتي تشمل Facebook و Instagram و Messenger. قال المتحدث باسم Meta داني ليفر في بيان إن سياسة الشركة تقيد كل من محتوى البالغين الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي وغير التابع للذكاء الاصطناعي ، كما أنه منعت صفحة التطبيق من الإعلان على منصاتها.
في فبراير ، بدأت Meta ، بالإضافة إلى مواقع للبالغين مثل OnlyFans و Pornhub ، المشاركة في أداة عبر الإنترنت تسمى Take It Down، التي تسمح للمراهقين بالإبلاغ عن الصور ومقاطع الفيديو الإباحية لأنفسهم من الإنترنت. يعمل موقع التقارير مع الصور العادية والمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي – والذي أصبح مصدر قلق متزايد لمجموعات سلامة الأطفال.
“عندما يسأل الناس قيادتنا العليا ما هي الصخور المنحدرة من التل الذي نشعر بالقلق بشأنه؟ الأول هو التشفير من طرف إلى طرف وما يعنيه ذلك لحماية الطفل. قال جافين بورتنوي ، المتحدث باسم المركز الوطني للأطفال المفقودين والمستغلين ، الذي يدير أداة Take It Down ، “وثانيًا هو الذكاء الاصطناعي وبالتحديد التزييف العميق”.
وقال بورتنوي: “لم نتمكن … من صياغة رد مباشر عليها حتى الآن”.
اترك ردك