وقد دق مسؤولو البنتاغون ناقوس الخطر بشأن “الفئات الفريدة من نقاط الضعف في الذكاء الاصطناعي أو الأنظمة المستقلة”، والتي يأملون أن تتمكن الأبحاث الجديدة من إصلاحها.
تم تكليف البرنامج، المسمى ضمان قوة الذكاء الاصطناعي ضد الخداع (GARD)، منذ عام 2022 بتحديد كيفية التلاعب بالبيانات المرئية أو مدخلات الإشارات الإلكترونية الأخرى للذكاء الاصطناعي من خلال الإدخال المحسوب للضوضاء.
قام علماء الكمبيوتر مع أحد مقاولي الدفاع في GARD بتجربة تصحيحات متلونة مصممة لخداع الأنظمة القائمة على الذكاء الاصطناعي لعمل معرفات مزيفة.
“يمكنك بشكل أساسي، عن طريق إضافة ضوضاء إلى صورة أو جهاز استشعار، كسر خوارزمية التعلم الآلي النهائية”، كما أوضح أحد كبار المسؤولين في البنتاغون الذي يدير البحث يوم الأربعاء.
وتأتي هذه الأخبار في الوقت الذي أدت فيه المخاوف من قيام البنتاغون “ببناء روبوتات قاتلة في الطابق السفلي” إلى وضع قواعد أكثر صرامة للذكاء الاصطناعي للجيش الأمريكي – والتي تنص على ضرورة الموافقة على جميع الأنظمة قبل النشر.
تمكن علماء الكمبيوتر بالتعاون مع مقاول الدفاع MITRE Corp. من إنشاء ضوضاء بصرية ظنها الذكاء الاصطناعي خطأً على أنها تفاح على رف متجر بقالة، أو حقيبة متروكة في الخارج، وحتى أشخاص
على سبيل المثال، يمكن أن يخطئ الذكاء الاصطناعي في تعريف حافلة مكتظة بالمدنيين على أنها دبابة، إذا تم تمييزها بـ “الضوضاء المرئية” الصحيحة، كما اقترح أحد مراسلي الأمن القومي لدى ClearanceJobs كمثال. أنفق برنامج البنتاغون 51 ألف دولار على التحقيق منذ عام 2022
وأضاف المسؤول مات توريك، نائب مدير مكتب الابتكار المعلوماتي التابع لوكالة مشاريع الأبحاث الدفاعية المتقدمة (DARPA): “يمكنك أيضًا، من خلال معرفة تلك الخوارزمية، إنشاء هجمات يمكن تنفيذها فعليًا”.
من الناحية الفنية، من الممكن “خداع” خوارزمية الذكاء الاصطناعي لارتكاب أخطاء حرجة في المهام – مما يجعل الذكاء الاصطناعي يخطئ في التعرف على مجموعة متنوعة من التصحيحات أو الملصقات المنقوشة لجسم مادي حقيقي غير موجود بالفعل.
على سبيل المثال، يمكن أن يخطئ الذكاء الاصطناعي في تعريف حافلة مكتظة بالمدنيين على أنها دبابة، إذا تم تمييزها بـ “الضوضاء البصرية” الصحيحة، كما اقترح أحد مراسلي الأمن القومي في موقع ClearanceJobs كمثال.
باختصار، يمكن أن تؤدي تكتيكات “الضوضاء” الرخيصة والخفيفة الوزن إلى قيام الذكاء الاصطناعي العسكري الحيوي بتصنيف المقاتلين الأعداء بشكل خاطئ على أنهم حلفاء، والعكس صحيح، خلال مهمة حرجة.
أظهرت عمليات تدقيق البنتاغون أن الباحثين في برنامج GARD ذو الميزانية المتواضعة أنفقوا 51000 دولار في التحقيق في تكتيكات الضوضاء المرئية والإشارات منذ عام 2022.
أوضحت دراسة أجراها معهد ميتر عام 2020 كيف يمكن تفسير الضوضاء البصرية، التي يمكن أن تبدو مجرد زينة أو غير مهمة للعين البشرية، مثل ملصق “العين السحرية” في التسعينيات، على أنها جسم صلب بواسطة الذكاء الاصطناعي. في الأعلى، تخدع الضوضاء المرئية لـ MITRE الذكاء الاصطناعي في رؤية التفاح
أوضح نائب مساعد وزير الدفاع الأمريكي لتطوير القوات والقدرات الناشئة، مايكل هورويتز، في إحدى الفعاليات في شهر يناير الماضي أن توجيهات البنتاغون الجديدة “لا تحظر تطوير أي أنظمة (ذكاء اصطناعي)، ولكنها ستوضح ما هو موجود وما هو غير موجود”. مسموح.' أعلاه، روبوت قاتل خيالي من سلسلة أفلام Terminator
يتضمن ما هو عام من أعمالهم دراسة أجريت عامي 2019 و2020 توضح كيف يمكن تفسير الضوضاء البصرية، التي يمكن أن تبدو مجرد زينة أو غير مهمة للعين البشرية، مثل ملصق “العين السحرية” في التسعينيات، على أنها جسم صلب بواسطة الذكاء الاصطناعي.
تمكن علماء الكمبيوتر بالتعاون مع شركة MITRE Corporation، وهي شركة مقاولات دفاعية، من إحداث ضوضاء بصرية ظنها الذكاء الاصطناعي خطأً على أنها تفاح على رف متجر بقالة، أو حقيبة متروكة في الخارج، وحتى أشخاص.
وقال توريك يوم الأربعاء: “سواء كان ذلك عبارة عن هجمات يمكن تحقيقها فعليًا أو أنماط ضوضاء تتم إضافتها إلى أنظمة الذكاء الاصطناعي، فقد قام برنامج GARD ببناء دفاعات حديثة ضد تلك الهجمات”.
وقال توريك: “تم توفير بعض هذه الأدوات والقدرات إلى CDAO (المكتب الرقمي والذكاء الاصطناعي الرئيسي بوزارة الدفاع)”.
وشكل البنتاغون CDAO في عام 2022؛ فهو بمثابة مركز لتسهيل اعتماد الذكاء الاصطناعي وتقنيات التعلم الآلي ذات الصلة بشكل أسرع في جميع أنحاء الجيش.
قامت وزارة الدفاع (DoD) مؤخرًا بتحديث قواعد الذكاء الاصطناعي الخاصة بها وسط “الكثير من الالتباس حول” كيفية تخطيطها لاستخدام آلات صنع القرار الذاتي في ساحة المعركة، وفقًا لنائب مساعد وزير الدفاع الأمريكي لتطوير القوات والقدرات الناشئة مايكل هورويتز
وأوضح هورويتز في إحدى الفعاليات في شهر يناير الماضي أن “التوجيه لا يحظر تطوير أي أنظمة (ذكاء اصطناعي)، ولكنه سوف “يوضح ما هو مسموح به وما هو غير مسموح به” ويدعم “الالتزام بالسلوك المسؤول” أثناء تطوره. أنظمة الحكم الذاتي القاتلة.
وبينما يعتقد البنتاغون أن التغييرات يجب أن تريح عقول الجمهور، قال البعض إنهم غير “مقتنعين” بالجهود المبذولة.
وقال مارك براكيل، مدير منظمة “معهد مستقبل الحياة” (FLI)، لصحيفة ديلي ميل في يناير/كانون الثاني الماضي: “تحمل هذه الأسلحة خطرًا كبيرًا للتصعيد غير المقصود”.
وأوضح أن الأسلحة التي تعمل بالذكاء الاصطناعي يمكن أن تسيء تفسير شيء ما، مثل شعاع ضوء الشمس، وتنظر إليه على أنه تهديد، وبالتالي مهاجمة القوى الأجنبية دون سبب، ودون “ضوضاء بصرية” عدائية متعمدة.
وقال براكيل إن النتيجة يمكن أن تكون مدمرة لأنه “بدون سيطرة بشرية ذات معنى، فإن الأسلحة التي تعمل بالذكاء الاصطناعي تشبه حادث الصاروخ النرويجي (الهرمجدون النووي القريب) ويمكن أن تزيد من خطر وقوع حوادث في النقاط الساخنة مثل مضيق تايوان”.
تواصل موقع Dailymail.com مع وزارة الدفاع للتعليق.
وتسعى وزارة الدفاع بقوة إلى تحديث ترسانتها باستخدام الطائرات بدون طيار والدبابات والأسلحة الأخرى التي تختار الهدف وتهاجمه دون تدخل بشري.
اترك ردك