عندما كانت تبلغ من العمر 14 عامًا فقط، تم مشاركة الصور العارية التي أرسلتها ليا جولييت إلى صبي على فيسبوك عبر الإنترنت، في البداية مع أطفال آخرين في المدرسة ثم على لوحات الرسائل المجهولة على الإنترنت.
قالت جولييت، التي تحدد هويتها على أنها غير ثنائية وتستخدم ضمير المتكلم “هم/هم”، لموقع DailyMail.com: “بدأ الأمر على هاتف آيفون. ثم تم تداوله على فيسبوك.
“ثم وجدت صور الاعتداء التي التقطتها موطنها الدائم على لوحة صور مجهولة الهوية تسمى Anon IB. ولا يزال هذا الموقع موجودًا حتى يومنا هذا.”
وتقول المحامية التي تبلغ من العمر الآن 27 عامًا إن التجربة كانت مدمرة – وألهمت رحلتهم ليصبحوا ناشطين يقاتلون ضد ما يرون أنه تقاعس شركات التكنولوجيا الكبرى عن منع الاعتداء الجنسي على الأطفال بناءً على الصور.
أصبحت ليا جولييت، التي تبلغ من العمر الآن 27 عامًا، مدافعة عن حقوق الإنسان ضد الإساءة التي تتيحها التكنولوجيا
وتابعوا: “عندما حدث لي هذا، عندما كنت في الرابعة عشرة من عمري، أردت أن أموت. حاولت أن أموت. لا أستطيع أن أعبر عن ذلك بما فيه الكفاية. لقد جعلت من مهمتي النضال من أجل مساءلة شركات التكنولوجيا الكبرى وتحقيق العدالة للناجين”.
في عام 2017، أطلقوا مسيرة ضد الانتقام الإباحي عبر جسر بروكلين، ليبدأوا رحلة كمدافعين ضد الإساءة التي تتيحها التكنولوجيا والتي أوصلت جولييت في النهاية إلى البيت الأبيض.
تتولى جولييت الآن حملة لصالح مبادرة Heat Initiative، التي تهدف إلى تحميل شركة Apple مسؤولية انتشار صور الاعتداء على خدمة iCloud التابعة للشركة.
قالوا: “لقد استخدمت خجلي كقوة لتحقيق الخير الاجتماعي. لكنني في السابعة والعشرين من عمري فقط. لم أكن أريد أو أتوقع أن تكون هذه هي حياتي. عندما كنت صغيرًا، كنت أرغب في أن أصبح مغنيًا.
“ولكن لأن هذه هي حياتي، ولأنها للأسف لا تزال كذلك بالنسبة للعديد من المراهقين والأطفال الضعفاء في جميع أنحاء بلدنا وحول العالم، فإنني لا أزال أحمل صدمتي معي إلى حد كبير.
“إنها جزء متجذر بعمق من شخصيتي وسبب أساسي لقيامي بالعمل الذي أقوم به. لكنني أقوى الآن. لقد بنيت صندوق أدوات – صندوق أدوات لاستعادة العار الذي عانيت منه واستخدامه لصالحى.”
جولييت أخبرنا هذا الموقع أنه منذ عام 2017، تغيرت اللغة حول الموضوع بشكل كبير.
قالت جولييت: “لقد تغير المشهد بأكمله فيما يتعلق بقضية (الإباحية الانتقامية) منذ… عندما عبرت جسر بروكلين لأول مرة.
“نحن لا نستخدم هذا المصطلح بعد الآن. لأنه لم يكن هناك شيء قمت به يبرر الانتقام من جسدي. والعري غير المقبول ليس إباحية.
“نستخدم مصطلحي الاعتداء الجنسي القائم على الصور ومواد الاعتداء الجنسي على الأطفال. وهما مصطلحان أكثر دقة لوصف الجرائم الحقيقية التي يتعرض لها الأطفال كل يوم في مختلف أنحاء البلاد”.
وأضافوا أن “الملايين” من مستخدمي الإنترنت في جميع أنحاء العالم يقعون ضحايا لانتهاكات مماثلة، وأن “الهاتف هو آلية التسليم”.
وقالوا لصحيفة ديلي ميل إن مفتاح هزيمة الإساءة القائمة على الصور هو التشريع والتعليم الحزبي.
لكن شركات التكنولوجيا الكبرى هي أيضًا جزء من المشكلة.
قالت جولييت: “إنها لحظة مهمة بالنسبة لنا أن ننظر إلى المنبع، وأن ندرك أننا لا نستطيع إصلاح المشكلة عند مصدرها. يتعين علينا إصلاحها عند المصدر. وفي عملي، وفي تجربتي على مدى العقد الماضي كناجية وخبير في هذا المجال، أدركت أن هذا المصدر هو آيفون”.
“ما لا يدركه الناس هو أن شركات التكنولوجيا، بما في ذلك شركة أبل، وخاصة شركة أبل، ليست مجرد مختبرات للابتكار، كما تحب شركة أبل أن تشير إلى نفسها في كثير من الأحيان، بل هي شركات تقدم المنتجات والخدمات.”
وتعتقد جولييت أن هناك تشريعات قليلة حول شركات التكنولوجيا الكبرى، على عكس متاجر المواد الغذائية، على سبيل المثال، التي لا يُسمح لها ببيع المنتجات التي تسمم الناس.
وأضافوا: “إنها شركات تقدم خدمات للناس والناس يعانون من أضرار جسيمة بسبب منتجاتها”.
“أعتقد شخصيًا أن هناك الكثير من الأشياء التي يمكنهم القيام بها لمنع هذا النوع من الأضرار. وهناك سبب واضح جدًا لعدم قيامهم بذلك وهو أنهم يختارون الربح على حساب الناس باستمرار.”
تشير بيانات المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) إلى أن شركة Apple وثقت 267 حالة من مواد الاعتداء الجنسي على الأطفال (CSAM) في جميع أنحاء العالم بين أبريل 2022 ومارس 2023.
ويقدر عدد مستخدمي آيفون حول العالم بأكثر من مليار.
عندما كانت جولييت تبلغ من العمر 14 عامًا، تم مشاركة صور عارية أرسلوها لصبي عبر الإنترنت
قالت جولييت لموقعنا الإلكتروني: “يمكنهم تقديم آلية إبلاغ أكثر قوة على منصاتهم. على سبيل المثال، نعلم أن Meta لديها سجل إبلاغ قوي للمركز الوطني للأطفال المفقودين والمستغلين.
“وعلى النقيض من ذلك، لا تمتلك شركة Apple، على الإطلاق، سجلاً كبيراً في الإبلاغ عن مثل هذه الانتهاكات. ولكننا نعلم أن الانتهاكات تحدث في iCloud.”
أعلنت شركة Apple في عام 2021 أنها ستنفذ “NeuralHash”، وهي خوارزمية مصممة للكشف عن مواد CSAM وإزالتها في iCloud.
لكن بعد عدة أشهر، تم إيقاف البرنامج مؤقتًا بسبب مخاوف تتعلق بالخصوصية.
قالت جولييت: “إن أبسط شيء يمكنهم فعله اليوم هو بدء عملية تجزئة أساسية، واكتشاف مطابقة التجزئة، وiCloud، الذي يحول في الأساس قطعة من CSAM المعروفة إلى سلسلة فريدة من الأرقام من خلال خوارزمية. إنه يحول الصورة إلى بصمة رقمية من نوع ما، ثم تتم مقارنتها بقائمة من بصمات الأصابع الرقمية الأخرى.
“يمكنهم القيام بذلك. بادروا إلى ذلك اليوم وأنقذوا أرواح الأطفال اليوم من خلال الكشف عن صور الاعتداء الجنسي على الأطفال المعروفة”.
وفي رد الشركة على مبادرة الحرارة بشأن عكسها، قال مدير خصوصية المستخدم وسلامة الأطفال في شركة أبل، إريك نوينشفاندر: “إن مواد الاعتداء الجنسي على الأطفال بغيضة ونحن ملتزمون بكسر سلسلة الإكراه والتأثير التي تجعل الأطفال عرضة لها”.
ومع ذلك، قال إنه بعد العمل مع خبراء الخصوصية والأمان وجماعات الحقوق الرقمية ودعاة سلامة الأطفال، قررت شركة أبل أنها لا تستطيع المضي قدمًا في آلية فحص مواد الاعتداء الجنسي على الأطفال، حتى تلك المصممة خصيصًا لحماية الخصوصية.
كتب نوينشفاندر: “إن فحص بيانات iCloud الخاصة بكل مستخدم من شأنه أن يخلق نواقل تهديد جديدة يمكن للصوص البيانات العثور عليها واستغلالها. كما أنه من شأنه أن يزيد من احتمالات العواقب غير المقصودة.
'إن البحث عن نوع واحد من المحتوى، على سبيل المثال، يفتح الباب أمام المراقبة الجماعية وقد يخلق رغبة في البحث في أنظمة الرسائل المشفرة الأخرى عبر أنواع المحتوى.'
قالت جولييت، التي تبلغ من العمر الآن 27 عامًا، إن التجربة كانت مدمرة
تواصل موقع DailyMail.com مع شركة Apple للحصول على تعليق وتم توجيهه إلى بيان سابق من Apple إلى Heat Initiative.
وجاء في البيان: “إن مواد الاعتداء الجنسي على الأطفال أمر بغيض ونحن ملتزمون بكسر سلسلة الإكراه والتأثير التي تجعل الأطفال عرضة لها.
“نحن فخورون بالمساهمات التي قدمناها حتى الآن ونعتزم مواصلة العمل بشكل تعاوني مع منظمات سلامة الأطفال وخبراء التكنولوجيا والحكومات للتوصل إلى حلول دائمة تساعد في حماية أكثر أفراد مجتمعنا ضعفًا.
“وفيما يتعلق بمساعدة الأطفال على البقاء آمنين، قدمنا مساهمات مفيدة لتحقيق هذا الهدف من خلال تطوير عدد من التقنيات المبتكرة.
“كما لاحظتم، قررنا عدم المضي قدمًا في الاقتراح الخاص بنهج العميل والخادم الهجين لاكتشاف CSAM لصور iCloud من بضع سنوات مضت، وذلك لعدد من الأسباب الجيدة.
“بعد التشاور على نطاق واسع مع المدافعين عن سلامة الأطفال، ومنظمات حقوق الإنسان، وخبراء تكنولوجيا الخصوصية والأمن، والأكاديميين، وبعد النظر في تكنولوجيا المسح من كل زاوية تقريبًا، خلصنا إلى أنه من غير الممكن عمليًا تنفيذها دون تعريض أمن وخصوصية مستخدمينا للخطر في نهاية المطاف.
“تستخدم الشركات بانتظام مسح البيانات الشخصية في السحابة لتحقيق الربح من معلومات مستخدميها. وفي حين بررت بعض الشركات هذه الممارسات، فقد اخترنا مسارًا مختلفًا تمامًا – مسارًا يعطي الأولوية لأمن وخصوصية مستخدمينا. وفي تقديرنا، فإن مسح محتوى iCloud الخاص بكل مستخدم من شأنه أن يفرض عواقب غير مقصودة خطيرة على مستخدمينا.”
يمكن قراءة البيان كاملا هنا.
تشن جولييت حملات ضد الإساءة القائمة على الصور بطرق مختلفة، بما في ذلك من خلال الشعر
لكن جولييت قالت إنهم سيواصلون القتال.
وقالا لموقع DailyMail.com: “أروي الكثير من قصصي من خلال الشعر. وسأستمر في استخدام صوتي لسرد قصتي والصراخ بقصائدي… أينما تأخذني الرياح حتى أرى إصلاحًا كبيرًا في مجال التكنولوجيا”.
“عندما بدأت مسيرة ضد الإباحية الانتقامية في عام 2016، شعرت وكأنني أخوض معركة وحيدة للغاية. ولكن بعد مرور 10 سنوات، أدركت أنني لست مضطرة إلى أن أكون وحدي. لست مضطرة إلى أن أكون وحدي.
“أنا الآن جزء من مجموعة رائعة من الناجين والحلفاء. وإذا قمت بنفس المسيرة اليوم، فأنا أعلم أن مئات الناجين سيكونون بجانبي، أصدقائي. لقد كان الإعلان عن قصتي علنًا أمرًا صعبًا للغاية. لكنني أعلم أن هذا هو ما وُلدت من أجله”.
اترك ردك