حذر خبير تقني من أن التطورات الجديدة في التكنولوجيا التي تعمل بالذكاء الاصطناعي ستؤدي إلى “انفجار” في الجرائم الإلكترونية في عام 2024.
شارك شون هنري، كبير مسؤولي الأمن في CrowdStrike، مؤخرًا كيف يمكن لمجرمي الإنترنت استخدام الذكاء الاصطناعي للتسلل عبر دفاعات الأمن السيبراني للأفراد، أو نشر معلومات مضللة، أو التسلل إلى شبكات الشركات.
قال مساعد المدير التنفيذي المتقاعد لمكتب التحقيقات الفيدرالي (FBI) إن مجرمي الإنترنت يمكنهم استخدام الذكاء الاصطناعي لتضليل الناس وتصديق روايات كاذبة خلال موسم الانتخابات وربما الكشف عن معلومات حساسة.
يأتي تحذير خبير الأمن السيبراني في الوقت الذي تم فيه منح الذكاء الاصطناعي وظائف أكثر من أي وقت مضى، بما في ذلك في الحكومة الفيدرالية الأمريكية وحكومات الولايات.
لقد قامت 27 إدارة تابعة للحكومة الفيدرالية الأمريكية بنشر الذكاء الاصطناعي بطريقة ما، وقد فعلت ذلك العديد من الولايات أيضًا.
في تكساس، على سبيل المثال، قامت أكثر من ثلث وكالات الولاية بتفويض مهام أساسية للذكاء الاصطناعي، بما في ذلك الإجابة على أسئلة الناس حول إعانات البطالة. تنشر أوهايو ويوتا وولايات أخرى تكنولوجيا الذكاء الاصطناعي أيضًا.
مع ازدياد قوة الذكاء الاصطناعي، أصبح لدى مجرمي الإنترنت المزيد من الأدوات لاختراق وسائل الحماية الأمنية أو تضليل الجمهور
ومع انتشار الذكاء الاصطناعي في العديد من مجالات الخدمات الحكومية والعامة، يخشى الخبراء من أن تكون هذه التقنيات ضحية للتحيز، أو فقدان السيطرة على التكنولوجيا، أو انتهاكات الخصوصية.
وقال هنري لشبكة سي بي إس مورنينج: “هذا مصدر قلق كبير للجميع”. لقد وضع الذكاء الاصطناعي هذه الأداة القوية للغاية في أيدي الشخص العادي، وجعله أكثر قدرة بشكل لا يصدق.
في أكتوبر/تشرين الأول، حذر مدير مكتب التحقيقات الفيدرالي كريس وراي من أن الذكاء الاصطناعي يصبح أكثر خطورة حاليًا عندما يتمكن من نقل مجرمي الإنترنت ذوي المستوى المنخفض إلى المستوى التالي.
لكنه توقع أن يمنح هؤلاء الخبراء بالفعل دفعة غير مسبوقة، مما يجعلهم أكثر خطورة من أي وقت مضى.
أحد الأمثلة، وفقًا لهنري، هو إنشاء مقاطع صوتية وفيديو تم إنشاؤها بواسطة الذكاء الاصطناعي “والتي يمكن تصديقها بشكل لا يصدق والتي تجعل الناس ينظرون إلى شيء ما، ويرون شيئًا ما، ويعتقدون أنه حقيقي، في حين أنه في الواقع تم تصنيعه – غالبًا من قبل حكومة أجنبية”. .’
ويزعم خبراء الأمن السيبراني أن الحكومات المتنافسة يمكن أن تستخدم أدوات الذكاء الاصطناعي هذه لنشر معلومات مضللة من أجل تقويض المؤسسات الديمقراطية وتحقيق أهداف أخرى للسياسة الخارجية.
يمكن لمقاطع الفيديو المزيفة بعمق إنشاء نسخ مقنعة لشخصيات عامة، بما في ذلك المشاهير والسياسيين، لكن المشاهد العادي قد لا يتمكن من معرفة ذلك
وقال هنري إنه من المهم أن تنظر بعناية عند مواجهة معلومات من أماكن غير مألوفة على الإنترنت، حيث قد يكون هناك شخص يحاول تضليلك أو سرقة معلوماتك الشخصية.
قال: “عليك أن تتأكد من مصدره”. “من يروي القصة، وما هي دوافعه، وهل يمكنك التحقق من ذلك من خلال مصادر متعددة؟”
“إنه أمر صعب للغاية لأن الأشخاص – عندما يستخدمون الفيديو – لديهم 15 أو 20 ثانية، وليس لديهم الوقت أو في كثير من الأحيان لا يبذلون جهدًا للبحث عن مصدر تلك البيانات وهذه مشكلة.”
التهديد ليس دائما أجنبيا.
كانت واحدة من كل ثلاث وكالات في ولاية تكساس تستخدم شكلاً من أشكال الذكاء الاصطناعي في عام 2022، وهو العام الأخير الذي تتوفر عنه هذه البيانات، وفقًا لصحيفة تكساس تريبيون.
وقد استخدم مسؤولو التوظيف في ولاية أوهايو الذكاء الاصطناعي للتنبؤ بالاحتيال في مطالبات التأمين ضد البطالة، وتستخدم ولاية يوتا الذكاء الاصطناعي لتتبع الماشية.
وعلى المستوى الوطني، تستخدم 27 إدارة فيدرالية مختلفة الذكاء الاصطناعي بالفعل.
وفقًا لصفحة الويب الخاصة بالذكاء الاصطناعي، تستخدم وزارة التعليم الأمريكية روبوت الدردشة للإجابة على أسئلة المساعدات المالية وروبوت سير العمل لإدارة الجداول الإدارية للمكاتب الخلفية.
وقد تمت أتمتة المزيد من العمليات في وزارة التجارة: مراقبة مصايد الأسماك، وأبحاث أسواق التصدير، والتوفيق بين الشركات، ليست سوى عدد قليل من الوظائف التي تم تخصيصها جزئيًا للذكاء الاصطناعي.
وقد أدرجت وزارة الخارجية 37 دورًا حاليًا للذكاء الاصطناعي على موقعها الإلكتروني، بما في ذلك الكشف عن التزييف العميق، والتحليلات السلوكية للاستطلاعات عبر الإنترنت، وتقييمات الأضرار الآلية.
تعد الخدمات الحكومية والعامة من المجالات الرئيسية لنمو الذكاء الاصطناعي، وفقًا لشركة استشارات الأعمال ديلويت.
ومع ذلك، فإن إحدى العقبات الكبيرة أمام التكنولوجيا هي أن الوكالات الحكومية تحتاج إلى تلبية معايير عالية فيما يتعلق بالأمن التكنولوجي.
وقالت الشركة: “بالنظر إلى مسؤوليتها في دعم الجمهور بطريقة عادلة، تميل مؤسسات الخدمات العامة إلى مواجهة معايير عالية عند الاستجابة لقضايا الذكاء الاصطناعي الأساسية مثل الثقة والسلامة والأخلاق والعدالة”.
“في مواجهة هذه التحديات، تبذل العديد من الوكالات الحكومية جهدًا قويًا لتسخير قوة الذكاء الاصطناعي مع التنقل بحذر عبر هذه المتاهة من الاعتبارات القانونية والأخلاقية.”
اترك ردك