عملية احتيال “ Deepfake ” في الصين تخشى المشجعين من الاحتيال المدفوع بالذكاء الاصطناعي

بكين (رويترز) – أثارت عملية احتيال في شمال الصين استخدمت تقنية “التزييف العميق” المتطورة لإقناع رجل بتحويل أموال إلى صديق مفترض مخاوف بشأن إمكانات تقنيات الذكاء الاصطناعي للمساعدة في الجرائم المالية.

عمدت الصين إلى تشديد الرقابة على مثل هذه التكنولوجيا والتطبيقات وسط ارتفاع في عمليات الاحتيال المدفوعة بالذكاء الاصطناعي ، والتي تنطوي بشكل أساسي على التلاعب ببيانات الصوت والوجه ، واعتمدت قواعد جديدة في يناير لحماية الضحايا قانونًا. اقرأ أكثر

وقالت الشرطة في مدينة باوتو ، في منطقة منغوليا الداخلية ، إن الجاني استخدم تقنية مبادلة الوجه التي تعمل بالذكاء الاصطناعي لانتحال شخصية صديق للضحية خلال مكالمة فيديو وتلقي تحويل 4.3 مليون يوان (622 ألف دولار).

وقالت الشرطة في بيان يوم السبت إنه حول الأموال معتقدًا أن صديقه كان بحاجة إلى إيداع خلال عملية تقديم العطاءات.

وأضافت الشرطة أن الرجل أدرك أنه تعرض للخداع فقط بعد أن عبر الصديق عن جهله بالموقف ، قائلة إنهم استعادوا معظم الأموال المسروقة ويعملون على تعقب الباقي.

أطلقت القضية العنان للنقاش على موقع المدونات الصغيرة Weibo حول التهديد للخصوصية والأمان عبر الإنترنت ، حيث حصل الهاشتاغ “# عمليات الاحتيال على الإنترنت في جميع أنحاء البلاد” على أكثر من 120 مليون مشاهدة يوم الاثنين.

كتب أحد المستخدمين: “هذا يدل على أن الصور والأصوات ومقاطع الفيديو يمكن استخدامها من قبل المحتالين”. “هل يمكن لقواعد أمن المعلومات مواكبة تقنيات هؤلاء الأشخاص؟”

(الدولار = 6.9121 يوان صيني)

معاييرنا: مبادئ الثقة في Thomson Reuters.