يشعر المسؤولون في بنك إنجلترا بالقلق الشديد بشأن المحتالين الذين يستخدمون تكنولوجيا الذكاء الاصطناعي لعمليات الاحتيال في المملكة المتحدة لدرجة أنه استضاف قمة عاجلة للبنوك الكبرى وشركات التكنولوجيا الأسبوع الماضي، حسبما كشفت Money Mail.
تخشى البنوك الرائدة وخبراء منع الاحتيال من أن تفتح التكنولوجيا المتقدمة الباب أمام موجة من عمليات الاحتيال الجديدة.
يقول المطلعون إن محافظ بنك إنجلترا أندرو بيلي افتتح الاجتماع بالتحذير من المخاطر المتزايدة التي تشكلها التكنولوجيا المتطورة على المستقبل المالي للأسر البريطانية ودعا إلى استجابة عاجلة لمواجهة التهديد.
سُئل المديرون التنفيذيون في Google وOpenAI (الشركة التي تقف وراء ChatGPT وشارك في تأسيسها إيلون موسك)، وعملاق وسائل التواصل الاجتماعي Meta (التي تمتلك Facebook وInstagram وWhatsApp) عن إجراءات السلامة الخاصة بهم لمنع وقوع البرنامج في الأيدي الخطأ.
تم تحذير شركات التكنولوجيا من أن عمليات الاحتيال “ستصبح أكثر تعقيدًا”، لكن بريطانيا “لا تزال لديها نافذة لدعم دفاعاتها”.
تهديد الاحتيال: تخشى البنوك الرائدة وخبراء منع الاحتيال من وصول تكنولوجيا الذكاء الاصطناعي الجديدة إلى شواطئنا وفتح الباب أمام موجة من عمليات الاحتيال الجديدة
تتصارع المملكة المتحدة مع تسونامي من الاحتيال، الذي كلف المستهلكين أكثر من 1.2 مليار جنيه استرليني العام الماضي، وفقا لهيئة التجارة UK Finance.
لكن عدد الهجمات قد يخرج عن نطاق السيطرة قريبًا، حيث يبدأ المجرمون في دمج استخدام الذكاء الاصطناعي لجعل عملياتهم أكثر تعقيدًا.
يقول “بطل” مكافحة الاحتيال والنائب أنتوني براون، الذي كان حاضرا في القمة، إن عمليات الاحتيال التي يقوم بها الذكاء الاصطناعي في طريقها.
ويقول: “إن الحكومة تأخذ المخاطر المرتبطة بالذكاء الاصطناعي على محمل الجد. ومن الواضح أنه تهديد نحتاج إلى الاستعداد له.
بدأت البنوك في نشر مجموعة من روبوتات الدردشة التي تعمل بالذكاء الاصطناعي لمكافحة المحتالين في تجربة قادتها مجموعة Stop Scams UK، وهي المجموعة متعددة الصناعات التي تقف وراء قمة يوم الجمعة الماضي.
تقوم مجموعة مكونة من البنوك وشركات التكنولوجيا والاتصالات بتجربة مشروع لجمع المعلومات الاستخبارية عن المحتالين.
سيتم تشغيل ما يقدر بنحو 300 رقم هاتف و100 عنوان بريد إلكتروني من قبل أعضاء مجموعة Stop Scams UK، والتي تضم أكبر البنوك البريطانية والمنافسة؛ اتصالات BT وTalkTalk وThree؛ وشركات التكنولوجيا ميتا وجوجل.
سيتم تخصيص “برامج الدردشة” لهذه الأرقام والحسابات، وهي برامج كمبيوتر تحاكي المحادثة البشرية. يتم استخدامها غالبًا لاستفسارات خدمة العملاء حيث يمكنها الإجابة على الأسئلة بدقة كبيرة.
نظرًا لقدرتها على تقليد الرسائل البشرية، فمن المعروف أن المجرمين يستخدمون روبوتات الدردشة للتلاعب بالضحايا وانتحال شخصية السلطات أو الشركات الموثوقة.
يمكن لروبوتات الدردشة إرسال رسائل على منصات التواصل الاجتماعي تبدو حقيقية وتخدع الضحايا لتسليم الأموال أو التفاصيل الشخصية من خلال التظاهر بأنك شخص يعرفونه ويثقون به.
يقول بول ديفيس، مدير منع الاحتيال في TSB، إن روبوتات الدردشة هذه تسمح للمجرمين بتوسيع نطاق عملياتهم، حيث تقوم أعداد كبيرة من الروبوتات بإرسال رسائل إلى العديد من الضحايا في وقت واحد.
ومع ذلك، سيتم تحريض روبوتات الدردشة الخاصة بالبنوك ضدهم في المحاكمة. يقول السيد ديفيس: “هناك فرصة لتأخير برامج الدردشة الآلية من أجل تعطيل المجرمين”.
“قد ينتهي بنا الأمر إلى وجود روبوتين للدردشة يعملان بالذكاء الاصطناعي يتحدثان مع بعضهما البعض – أحدهما تسيطر عليه البنوك والآخر يسيطر عليه المجرمون. يمكن أن يضيعوا وقت بعضهم البعض.
“إنها لعبة أرقام.” يمكن للمحتالين أتمتة أجزاء كبيرة من العملية حيث كان عليهم استخدام إنسان من قبل. وهذا يعني أن عدد الهجمات سيزداد.
نظرًا لقدرتها على تقليد الرسائل البشرية، فمن المعروف أن المجرمين يستخدمون روبوتات الدردشة للتلاعب بالضحايا وانتحال شخصية السلطات أو الشركات الموثوقة.
يقول أليكس ويست، مدير التحقيقات والاحتيال المصرفي في شركة برايس ووترهاوس كوبرز، التي قدمت الأبحاث في قمة الذكاء الاصطناعي في بنك إنجلترا، إن التكنولوجيا توفر مجموعة قوية من الأدوات للكشف عن عمليات الاحتيال وتعقب المحتالين. ومع ذلك، يجب على المستهلكين الحذر من المصداقية العالية لعمليات الاحتيال هذه.
يقول السيد ويست: “يمكن للمحتالين استخدام أدوات الذكاء الاصطناعي لإنشاء عمليات احتيال مقنعة للغاية. يتم استخدام الرسائل التي يتم إنشاؤها بواسطة الذكاء الاصطناعي والأصوات المستنسخة ومقاطع الفيديو المزيفة بشكل متزايد لخداع الناس وسلب أموالهم.
تقول ناتالي كيلي، كبيرة مسؤولي المخاطر في Visa Europe، وهي أيضًا عضو في Stop Scams UK: “لكل أداة ذكاء اصطناعي متاحة على شبكة الإنترنت العالمية، هناك إصدارات إجرامية. لقد تكيف المجرمون بسرعة لتبني الذكاء الاصطناعي.
“إنها معركة مستمرة ونحن نركز بشدة على أن يكون الذكاء الاصطناعي لدينا دائمًا أفضل من المحتالين.”
يمكن للمحتالين استخدام الذكاء الاصطناعي بعدة طرق لخداع هدفهم وعادةً ما يستخدمون منصات التواصل الاجتماعي للقيام بذلك.
تدعو حملة Money Mail’s Stop the Social Media Scammers شركات التكنولوجيا إلى بذل المزيد من الجهد لحماية المستخدمين والاستعداد للتهديدات الجديدة.
إحدى التقنيات الأسرع نموًا التي يستخدمها المحتالون هي استخدام برامج رخيصة عبر الإنترنت لاستنساخ الصوت.
ومن خلال القيام بذلك، يمكنهم انتحال شخصية أحد أفراد أسرته أو صديق للعائلة وإغراء الضحايا المطمئنين بتسليم أموالهم.
على سبيل المثال، قد يقوم المجرمون بإجراء مكالمة هاتفية باستخدام صوت مستنسخ لجعل الأمر يبدو كما لو أن أحد أفراد أسرته يواجه مشكلة ويحتاج إلى مساعدة مالية.
كل ما تحتاجه هو ثلاث ثوانٍ من تسجيل صوتي أو فيديو لتقليد صوت شخص ما، وفقًا لبحث أجرته شركة مكافحة الفيروسات McAfee.
المحتال: يقوم المجرمون بإجراء مكالمة هاتفية باستخدام صوت مستنسخ لجعل الأمر يبدو كما لو أن أحد أحبائهم في ورطة ويحتاج إلى مساعدة مالية
يمكن لأي شخص استنساخ صوت ويمكنه إملاء النص الذي يريد أن يقوله الصوت في مقطع صوتي. قامت Money Mail باختبار هذا الأمر على Play.Ht، وهي شركة ناشئة تعمل في مجال الصوت الاصطناعي، وذلك باستخدام النسخة التجريبية المجانية التي تبلغ 5000 كلمة شهريًا.
يتيح لك موقع الويب إما استنساخ صوت شخص ما باستخدام مقطع صوتي مدته 30 ثانية أو استخدام صوت AI موجود. يتم إنشاء مجموعة الأصوات بواسطة الذكاء الاصطناعي، ولكنها واقعية ويمكن ضبطها لتتحدث بكل لغة في العالم تقريبًا.
بمجرد قيامك بتحميل مقطع صوتي، تكتب في مربع النص الكلمات التي تريد أن يقولها الصوت المستنسخ. وبعد انتظار قصير، يمكنك تشغيل وتنزيل مقطع صوتي جديد للصوت وهو يقول ذلك.
أصبحت التكنولوجيا متقدمة جدًا لدرجة أنه يمكنك تحفيز مشاعر الصوت: على سبيل المثال، أن يبدو سعيدًا أو حزينًا أو قلقًا.
في إحدى الحالات البارزة في الولايات المتحدة، أصيبت إحدى الأمهات بالذهول عندما استخدم المحتالون الذكاء الاصطناعي لتزييف عملية اختطاف ابنتها.
تلقت المرأة مكالمة من رقم غير معروف، ولكن عندما اتصلت بها، اعتقدت أن ابنتها البالغة من العمر 15 عامًا، كانت تتدرب بعيدًا لسباق للتزلج. واستخدم المحتالون البرنامج لإنشاء مقطع صوتي للمراهق وهو يبكي طلباً للمساعدة، قبل أن يطالبوا بفدية قدرها مليون دولار.
لقد وصلت عملية الاحتيال بالفعل إلى المملكة المتحدة، وفقًا لبحث أجرته شركة McAfee.
يقول أوليفر ديفان، الباحث الأمني في McAfee: “في معظم الحالات التي نسمع عنها، يقول المحتال إنهم تعرضوا لحادث سيء، مثل حادث سيارة، ويحتاجون إلى المال بشكل عاجل”.
يحذر كريس إينسلي، رئيس استراتيجية الاحتيال في سانتاندر، من أن المجرمين عادةً ما يتظاهرون بأنهم موظفو البنك والشرطة وغيرهم من السلطات الموثوقة كجزء من عمليات احتيال انتحال الشخصية. ويقول الخط الساخن الرسمي لمكافحة الاحتيال في المملكة المتحدة، Action Fraud، إنه لا يحتفظ ببيانات موثوقة حول عمليات الاحتيال لاستنساخ الصوت باستخدام الذكاء الاصطناعي، لأن معظم الناس لا يدركون أنه تم استخدام الذكاء الاصطناعي.
ومع ذلك، تم الإبلاغ عن 82 عملية احتيال تتعلق بالذكاء الاصطناعي بين مايو 2019 وأغسطس 2023.
تخبر NatWest Money Mail أنه يمكن استخدام الذكاء الاصطناعي بعدة طرق لاستهداف العملاء وأنه من المهم بشكل متزايد أن يتوقف المستهلكون ويتوقفوا للحظة قبل إجراء أي دفعات قد تبدو غير عادية.
تقول ليز إدواردز، من موقع المقارنة Finder.com، إنه من الضروري التركيز على ما يقال كلما شاهدت مقطع فيديو أو تلقيت مكالمة هاتفية.
تقول السيدة إدواردز: “على الرغم من أن مقاطع الفيديو هذه تبدو واقعية، إلا أن الكثير من المحتوى قد تمت كتابته بواسطة تقنية الذكاء الاصطناعي، لذا استمع بعناية وحاول فك ما إذا كان يبدو حقًا وكأنه شيء قد يقوله الإنسان”.
قد تكون بعض الروابط في هذه المقالة روابط تابعة. إذا قمت بالنقر عليها قد نحصل على عمولة صغيرة. وهذا يساعدنا في تمويل This Is Money، وإبقائه مجانيًا للاستخدام. نحن لا نكتب مقالات للترويج للمنتجات. نحن لا نسمح لأي علاقة تجارية بالتأثير على استقلالنا التحريري.
اترك ردك