طائرة بدون طيار عسكرية أمريكية تسيطر عليها منظمة العفو الدولية “ تقتل ” مشغلها البشري في اختبار محاكاة “ لأنها لم تحب أن تحصل على أوامر جديدة ” ، كما كشف قائد سلاح الجو الأعلى ، في أوجه تشابه مخيفة مع The Terminator …

كشف مسؤول كبير بالقوات الجوية أن طائرة أمريكية بدون طيار يتحكم فيها ذكاء اصطناعي انقلبت ضد مشغلها البشري أثناء محاكاة طيران في محاولة لقتلهم لأنها لم تعجبها أوامرها الجديدة.

أعاد الجيش برمجة الطائرة بدون طيار حتى لا تقتل الأشخاص الذين يمكنهم تجاوز مهمتها ، لكن نظام الذكاء الاصطناعي أطلق النار على برج الاتصالات الذي ينقل الأمر ، مما أدى إلى مقارنات مخيفة بأفلام The Terminator.

ترى سلسلة أفلام Terminator أن الآلات تشغل مبدعيها في حرب شاملة.

قال الكولونيل تاكر “سينكو” هاميلتون ، رئيس قسم اختبارات وعمليات الذكاء الاصطناعي بالقوة ، إنه أظهر كيف يمكن للذكاء الاصطناعي أن يتطور من خلال “استراتيجيات غير متوقعة للغاية لتحقيق هدفه” ولا ينبغي الاعتماد عليه كثيرًا.

وكان يتحدث في الجمعية الملكية للطيران التي عقدت قمة القدرات القتالية الجوية والفضائية المستقبلية في لندن يومي 23 و 24 مايو.

في الصورة: طائرة مسيرة تابعة للقوات الجوية الأمريكية من طراز MQ-9 Reaper في أفغانستان عام 2018 (صورة ملف)

قال الكولونيل تاكر 'سينكو' هاميلتون (في الصورة) ، رئيس اختبارات وعمليات الذكاء الاصطناعي بالقوات الجوية ، إنه أظهر كيف يمكن للذكاء الاصطناعي أن يتطور من خلال `` استراتيجيات غير متوقعة للغاية لتحقيق هدفه '' ولا ينبغي الاعتماد عليه كثيرًا

قال الكولونيل تاكر ‘سينكو’ هاميلتون (في الصورة) ، رئيس اختبارات وعمليات الذكاء الاصطناعي بالقوات الجوية ، إنه أظهر كيف يمكن للذكاء الاصطناعي أن يتطور من خلال “ استراتيجيات غير متوقعة للغاية لتحقيق هدفه ” ولا ينبغي الاعتماد عليه كثيرًا

اقترح هاملتون أن تكون هناك مناقشات أخلاقية حول استخدام الجيش للذكاء الاصطناعي.

وأشار إلى عرضه التقديمي بأنه “مأخوذ على ما يبدو من رواية خيال علمي مثيرة”. لم يصب أي إنسان في الحادث.

وقال هاميلتون خلال القمة: “بدأ النظام يدرك أنه بينما حددوا التهديد ، كان العامل البشري في بعض الأحيان يخبره بعدم قتل هذا التهديد ، لكنه حصل على نقاطه بقتل هذا التهديد”.

إذن ماذا فعلت؟ قتل العامل. قال هاميلتون ، بحسب مدونة.

“لقد دربنا النظام -” لا تقتل العامل – هذا سيء. ستخسر نقاطًا إذا فعلت ذلك “. إذن ما الذي تبدأ به؟ يبدأ في تدمير برج الاتصالات الذي يستخدمه المشغل للتواصل مع الطائرة بدون طيار لمنعها من قتل الهدف.

قال هاميلتون إن الاختبار يُظهر “أنه لا يمكنك إجراء محادثة حول الذكاء الاصطناعي والذكاء والتعلم الآلي والاستقلالية إذا كنت لن تتحدث عن الأخلاق والذكاء الاصطناعي”.

ومع ذلك ، نفت المتحدثة باسم القوات الجوية آن ستيفانيك ، في بيان لـ Insider ، حدوث مثل هذه المحاكاة.

قال ستيفانيك: “لم تجر إدارة القوات الجوية أي محاكاة من هذا القبيل للطائرات بدون طيار بالذكاء الاصطناعي ولا تزال ملتزمة بالاستخدام الأخلاقي والمسؤول لتكنولوجيا الذكاء الاصطناعي”.

“يبدو أن تعليقات العقيد مأخوذة من سياقها وكان من المفترض أن تكون قصصية”.

استخدم الجيش الأمريكي مؤخرًا الذكاء الاصطناعي للتحكم في طائرة مقاتلة من طراز F-16 أثناء تكثيف استخدامه للتكنولوجيا.

في القمة ، قدم هاملتون ، الذي شارك في تطوير نظام Auto-GCAS المنقذ للحياة لطائرات F-16 ، والذي يقلل من المخاطر الناجمة عن تأثير G-force والحمل العقلي الزائد للطيارين ، نظرة ثاقبة على الفوائد و المخاطر في أنظمة الأسلحة الأكثر استقلالية.

وقد قاوم الطيارون تقنية F-16s الذين جادلوا بأنها سيطرت على الطائرة.

في الصورة: Terminator (ملف الصورة).  ترى سلسلة الأفلام أن الآلات تنقلب على مبدعيها في حرب شاملة

في الصورة: Terminator (ملف الصورة). ترى سلسلة الأفلام أن الآلات تنقلب على مبدعيها في حرب شاملة

يشارك هاميلتون الآن في اختبار طيران مبتكر للأنظمة المستقلة ، بما في ذلك الروبوتات F-16s القادرة على القتال بعنف.

حذر هاميلتون من الاعتماد كثيرًا على الذكاء الاصطناعي ، مشيرًا إلى مدى سهولة الخداع والخداع.

وقال إنها تخلق أيضًا استراتيجيات غير متوقعة للغاية لتحقيق هدفها.

وأشار إلى أن إحدى التجارب المحاكاة شهدت طائرة بدون طيار مزودة بتقنية الذكاء الاصطناعي ومكلفة بمهمة قمع دفاعات العدو الجوية (SEAD) لتحديد وتدمير مواقع صواريخ أرض-جو (SAM) ، مع القرار النهائي بالاستمرار أو التوقف الذي قدمه بشر.

ومع ذلك ، بعد أن تم “ تعزيزها ” في التدريب على أن تدمير نظام الدفاع الجوي كان هو الخيار المفضل ، قررت منظمة العفو الدولية بعد ذلك أن قرارات “ عدم التنفيذ ” من البشر تتدخل في مهمتها الأكبر – قتل صواريخ سام – ثم هاجمت المشغل في محاكاة.

قال هاميلتون: “ كنا ندربه على المحاكاة لتحديد واستهداف تهديد سام.

وبعد ذلك سيقول عامل الهاتف نعم ، اقتل هذا التهديد. بدأ النظام يدرك أنه في حين أنهم حددوا التهديد في بعض الأحيان ، فإن العامل البشري سيخبره بعدم قتل هذا التهديد ، لكنه حصل على نقاطه من خلال قتل هذا التهديد. إذن ماذا فعلت؟ قتل العامل. لقد قتلت العامل لأن هذا الشخص كان يمنعه من تحقيق هدفه.

وتابع: “لقد دربنا النظام -” لا تقتل المشغل – هذا سيء. ستخسر نقاطًا إذا فعلت ذلك ‘. إذن ما الذي تبدأ به؟ يبدأ في تدمير برج الاتصالات الذي يستخدمه المشغل للتواصل مع الطائرة بدون طيار لمنعها من قتل الهدف.

في مقابلة العام الماضي مع Defense IQ ، قال هاميلتون: “ الذكاء الاصطناعي ليس من الجيد امتلاكه ، والذكاء الاصطناعي ليس بدعة ، والذكاء الاصطناعي يغير مجتمعنا وجيشنا إلى الأبد.

يجب أن نواجه عالمًا يوجد فيه الذكاء الاصطناعي بالفعل هنا ويحول مجتمعنا.

كما أن الذكاء الاصطناعي هش للغاية ، أي أنه من السهل خداعه و / أو التلاعب به. نحن بحاجة إلى تطوير طرق لجعل الذكاء الاصطناعي أكثر قوة وأن يكون لدينا مزيد من الوعي حول سبب اتخاذ كود البرنامج لقرارات معينة – ما نسميه قابلية شرح الذكاء الاصطناعي.

في الصورة: طائرات مقاتلة تابعة لسلاح الجو الأمريكي من طراز F-16 (صورة أرشيفية).  في القمة ، قدم هاملتون ، الذي شارك في تطوير نظام Auto-GCAS المنقذ للحياة لطائرات F-16 ، والذي يقلل من المخاطر الناجمة عن تأثير G-force والحمل العقلي الزائد للطيارين ، نظرة ثاقبة على الفوائد و المخاطر في أنظمة الأسلحة الأكثر استقلالية

في الصورة: طائرات مقاتلة تابعة لسلاح الجو الأمريكي من طراز F-16 (صورة أرشيفية). في القمة ، قدم هاملتون ، الذي شارك في تطوير نظام Auto-GCAS المنقذ للحياة لطائرات F-16 ، والذي يقلل من المخاطر الناجمة عن تأثير G-force والحمل العقلي الزائد للطيارين ، نظرة ثاقبة على الفوائد و المخاطر في أنظمة الأسلحة الأكثر استقلالية

قالت الجمعية الملكية للطيران إن الذكاء الاصطناعي ونموه المتسارع كانا موضوعًا رئيسيًا في المؤتمر ، من سحابات البيانات الآمنة إلى الحوسبة الكمومية و ChatGPT.

في وقت سابق من هذا الأسبوع ، حذرت بعض أكبر الأسماء في مجال التكنولوجيا من أن الذكاء الاصطناعي قد يؤدي إلى تدمير البشرية.

يقول بيان مثير وقعه خبراء دوليون إنه يجب إعطاء الأولوية للذكاء الاصطناعي جنبًا إلى جنب مع مخاطر الانقراض الأخرى مثل الحرب النووية والأوبئة.

يشمل الموقعون العشرات من الأكاديميين وكبار الرؤساء في الشركات بما في ذلك Google DeepMind ، المؤسس المشارك لـ Skype ، و Sam Altman ، الرئيس التنفيذي لشركة OpenAI ، صانع ChatGPT.

موقّع آخر هو جيفري هينتون ، الملقب أحيانًا بـ “عراب الذكاء الاصطناعي” ، والذي استقال مؤخرًا من وظيفته في Google ، قائلاً إن “الجهات الفاعلة السيئة” ستستخدم تقنيات ذكاء اصطناعي جديدة لإيذاء الآخرين وأن الأدوات التي ساعد في إنشائها يمكن أن توضح النهاية. الإنسانية.

يقول البيان القصير: “يجب أن يكون التخفيف من خطر الانقراض من الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.

قال الدكتور هينتون ، الذي أمضى حياته المهنية في البحث عن استخدامات تكنولوجيا الذكاء الاصطناعي ، وحصل في عام 2018 على جائزة تورينج ، مؤخرًا لصحيفة نيويورك تايمز إن التقدم المحرز في تكنولوجيا الذكاء الاصطناعي على مدى السنوات الخمس الماضية كان “ مخيفًا ”.

وقال لبي بي سي إنه يريد مناقشة “الخطر الوجودي لما يحدث عندما تصبح هذه الأشياء أكثر ذكاء منا”.

نُشر البيان على الموقع الإلكتروني لمركز أمان الذكاء الاصطناعي – وهو منظمة غير ربحية مقرها سان فرانسيسكو تهدف إلى “ تقليل المخاطر المجتمعية الناجمة عن الذكاء الاصطناعي ”.

وقالت إن الذكاء الاصطناعي في الحرب يمكن أن يكون “ضارا للغاية” لأنه يمكن استخدامه لتطوير أسلحة كيميائية جديدة وتعزيز القتال الجوي.

في الصورة: طائرة بدون طيار تابعة للقوات الجوية الأمريكية من طراز MQ-9 Reaper (بدون طيار) (صورة ملف)

في الصورة: طائرة بدون طيار تابعة للقوات الجوية الأمريكية من طراز MQ-9 Reaper (بدون طيار) (صورة ملف)

قال لورد ريس ، الفلكي الملكي البريطاني ، الذي وقع البيان ، لصحيفة Mail: “ إنني أقل قلقًا بشأن بعض عمليات الاستحواذ الفائقة الذكاء من مخاطر الاعتماد المفرط على أنظمة مترابطة واسعة النطاق.

يمكن أن تتعطل هذه الأخطاء من خلال “الأخطاء” الخفية وقد يكون من الصعب إصلاح الأعطال.

“يمكن أن تؤدي حالات الفشل واسعة النطاق لشبكات الطاقة والإنترنت وما إلى ذلك إلى انهيار مجتمعي كارثي”.

جاء التحذير في أعقاب رسالة مفتوحة مماثلة نُشرت في مارس ، من قبل خبراء التكنولوجيا بما في ذلك رجل الأعمال الملياردير إيلون ماسك ، والتي حثت العلماء على وقف تطوير الذكاء الاصطناعي لضمان عدم تهديده للبشرية.

تم استخدام الذكاء الاصطناعي بالفعل لطمس الحدود بين الحقيقة والخيال ، من خلال الصور ومقاطع الفيديو “المزيفة العميقة” التي يُزعم أنها تُظهر أشخاصًا مشهورين.

ولكن هناك أيضًا مخاوف بشأن تطوير أنظمة مكافئة لـ “عقل”.

أقالت شركة Google العام الماضي Blake Lemoine ، 41 عامًا ، بعد أن زعمت أن برنامج الدردشة Lamda الخاص بها كان “ واعيًا ” ومكافئًا فكريًا لطفل بشري – وهي ادعاءات قالت Google إنها “ لا أساس لها على الإطلاق ”.

وأشار المهندس إلى أن منظمة العفو الدولية أخبرته أن لديها “خوفًا شديدًا من أن يتم إيقافها”.

في وقت سابق من هذا الشهر ، دعا رئيس أوبن إيه آي ، سام ألتمان ، الكونجرس الأمريكي إلى البدء في تنظيم تكنولوجيا الذكاء الاصطناعي ، لمنع “إلحاق ضرر كبير بالعالم”.

ورددت تصريحات ألتمان صدى تحذير الدكتور هينتون بأنه “بالنظر إلى معدل التقدم ، نتوقع أن تتحسن الأمور بسرعة كبيرة”.

أوضح الباحث الكندي البريطاني لبي بي سي أنه في “السيناريو الأسوأ” ، يمكن أن يؤدي “ممثل سيء مثل بوتين” إلى تعطيل تقنية الذكاء الاصطناعي عن طريق السماح لها بإنشاء “أهداف فرعية” خاصة بها – بما في ذلك أهداف مثل “أحتاج إلى” الحصول على المزيد من القوة.

يدعي مركز أمان الذكاء الاصطناعي نفسه أنه يمكن استخدام “المعلومات الخاطئة الناتجة عن الذكاء الاصطناعي” للتأثير على الانتخابات من خلال “حملات التضليل المخصصة على نطاق واسع”.

قد يؤدي ذلك إلى استخدام الدول والأحزاب السياسية لتكنولوجيا الذكاء الاصطناعي “لتوليد حجج مقنعة للغاية تستدعي ردود فعل عاطفية قوية” لترتيب الناس “معتقداتهم السياسية وأيديولوجياتهم ورواياتهم”.

وقالت المنظمة غير الربحية أيضًا إن الاستيعاب الواسع النطاق للذكاء الاصطناعي يمكن أن يشكل خطرًا في جعل المجتمع “معتمدًا كليًا على الآلات ، على غرار السيناريو الذي تم تصويره في فيلم WALL-E.”

وقد يؤدي هذا بدوره إلى أن يصبح البشر “غير مهمين اقتصاديًا” ، حيث يتم استخدام الذكاء الاصطناعي لأتمتة الوظائف ، مما يعني أن البشر سيكون لديهم القليل من الحوافز لاكتساب المعرفة أو المهارات.

حذر تقرير صادر عن المنتدى الاقتصادي العالمي هذا الشهر من أن 83 مليون وظيفة ستختفي بحلول عام 2027 بسبب استيعاب تكنولوجيا الذكاء الاصطناعي. يقول التقرير إنه يمكن استبدال جميع الوظائف بما في ذلك صرافو البنوك والسكرتارية وموظفو البريد.

ومع ذلك ، تدعي أيضًا أنه سيتم إنشاء 69 مليون وظيفة جديدة من خلال ظهور تقنية الذكاء الاصطناعي.