كشف تقرير صادم أن محبي الأطفال يستخدمون الذكاء الاصطناعي لإنشاء وبيع صور اعتداء جنسي على الأطفال تشبه الحياة

كشف تقرير صادم أن محبي الأطفال يستخدمون الذكاء الاصطناعي لإنشاء وبيع صور اعتداء جنسي على الأطفال تشبه الحياة

يستخدم مشتهو الأطفال الذكاء الاصطناعي (AI) لإنشاء صور اعتداء جنسي على الأطفال تشبه الحياة ، كما زُعم.

زعم تحقيق صادم أن صور الأطفال والرضع يتعرضون للاغتصاب من بين العديد من الصور التي أنتجها المعتدون باستخدام Stable Diffusion.

بينما يهدف برنامج إنشاء الصور إلى عمل عمل فني ، فإن استخدام الذكاء الاصطناعي لمطالبات الكلمات يسمح بتكوين أي صورة مرغوبة.

تدعي هيئة الإذاعة البريطانية أن هذه الأشياء يتم بيعها وتداولها بعد ذلك على موقع Pixiv الياباني ، حيث تؤدي الحسابات غالبًا إلى محتوى أكثر وضوحًا على Patreon.

قالت الصحفية ، أوليفيا شيبشانكس ، للنشر: “منذ أن أصبحت الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي ممكنة ، كان هناك هذا الفيضان الهائل … لم يقتصر الأمر على الفتيات الصغيرات فحسب ، بل يتحدثن (المتحرشون بالأطفال) عن الأطفال الصغار.”

يأتي التقرير الجديد بعد شهر واحد فقط من العثور على منصة Midjourney للذكاء الاصطناعي لتحويل الصور الحقيقية للأطفال إلى صور جنسية.

في بعض الحالات ، ذهب المنحرفون إلى أبعد من ذلك من خلال تجربة تقنية “التزييف العميق” للصق وجوه الأطفال الواقعيين والممثلين الأطفال على أجساد عارية ، وفقًا للسلطات.

وسط هذه الاكتشافات ، انتقد مجلس قيادة الشرطة الوطنية (NPCC) المنصات لعدم تحمل “المسؤولية الأخلاقية” على محتواها.

في قانون المملكة المتحدة ، يتم التعامل مع هذه الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي مثل صورة إباحية حقيقية لطفل يعتبر حيازتها أو الاتجار بها أمرًا غير قانوني.

لكن الرسوم الكرتونية الجنسية للأطفال ليست غير قانونية في اليابان ، التي تستضيف موقع مشاركة الصور Pixiv ، مما يعني أنه يمكن لمنشئي المحتوى الترويج بسهولة لهذا المحتوى.

ومع ذلك ، قال متحدث باسم الشركة لبي بي سي إن المنصة عززت أنظمة المراقبة الخاصة بها لمعالجة هذا الأمر.

من المفهوم أيضًا أن Pixiv حظرت الصور الواقعية للذكاء الاصطناعي للأطفال اعتبارًا من 31 مايو ، لكن ليس من الواضح تأثير ذلك.

تابعت السيدة شيبشانكس: “الحجم ضخم للغاية”.

“لذا سيقول الناس (المبدعون)” نهدف إلى تصوير ما لا يقل عن 1000 صورة شهريًا “.