المخاوف من قيام البنتاغون ببناء روبوتات قاتلة في الطابق السفلي أثارت قواعد أكثر صرامة للذكاء الاصطناعي، حسبما يزعم مسؤول في وزارة الدفاع

ربما أدت المخاوف من أن البنتاغون “يبني روبوتات قاتلة في الطابق السفلي” إلى قواعد أكثر صرامة للذكاء الاصطناعي، والتي تتطلب الموافقة على جميع الأنظمة قبل النشر.

قامت وزارة الدفاع (DoD) مؤخرًا بتحديث قواعد الذكاء الاصطناعي الخاصة بها وسط “الكثير من الارتباك حول” كيفية تخطيطها لاستخدام آلات صنع القرار الذاتي في ساحة المعركة، وفقًا لنائب مساعد وزير الدفاع.

وأوضح مايكل هورويتز في حدث هذا الشهر أن “التوجيه لا يحظر تطوير أي أنظمة”، ولكنه “سيوضح ما هو مسموح به وما هو غير مسموح به” ويدعم “الالتزام بالسلوك المسؤول”، أثناء تطويره للقيادة الذاتية الفتاكة. أنظمة.

وبينما يعتقد البنتاغون أن التغييرات يجب أن تريح عقول الجمهور، قال البعض إنهم غير “مقتنعين” بالجهود المبذولة.

ربما أدت المخاوف من أن البنتاغون “يبني روبوتات قاتلة في الطابق السفلي” إلى قواعد أكثر صرامة للذكاء الاصطناعي، والتي تتطلب الموافقة على جميع الأنظمة قبل النشر. في الصورة مركبة MAARS بدون طيار التي تم الكشف عنها في عام 2015

أثارت أخبار تحديث “الاستقلالية في أنظمة الأسلحة” التي أصدرها البنتاغون عام 2012، جدلاً على الإنترنت حيث قال العديد من الأشخاص “إذا قال البنتاغون إنه لا يفعل ذلك، فهو يفعله”.

تواصل موقع Dailymail.com مع وزارة الدفاع للتعليق.

وتسعى وزارة الدفاع بقوة إلى تحديث ترسانتها باستخدام الطائرات بدون طيار والدبابات والأسلحة الأخرى التي تختار الهدف وتهاجمه دون تدخل بشري.

وقال مارك براكيل، مدير منظمة الدعوة لمعهد مستقبل الحياة (FLI)، لموقع DailyMail.com: “تحمل هذه الأسلحة خطرًا كبيرًا للتصعيد غير المقصود”.

وأوضح أن الأسلحة التي تعمل بالذكاء الاصطناعي يمكن أن تسيء تفسير شيء ما، مثل شعاع ضوء الشمس، وترى أنه تهديد، وبالتالي مهاجمة القوى الأجنبية دون سبب.

وقال براكيل إن النتيجة يمكن أن تكون مدمرة لأنه “بدون سيطرة بشرية ذات معنى، فإن الأسلحة التي تعمل بالذكاء الاصطناعي تشبه حادث الصاروخ النرويجي (الهرمجدون النووي القريب) ويمكن أن تزيد من خطر وقوع حوادث في النقاط الساخنة مثل مضيق تايوان”.

قامت وزارة الدفاع (DoD) مؤخرًا بتحديث قواعد الذكاء الاصطناعي الخاصة بها وسط

قامت وزارة الدفاع (DoD) مؤخرًا بتحديث قواعد الذكاء الاصطناعي الخاصة بها وسط “الكثير من الارتباك حول” كيفية تخطيطها لاستخدام آلات صنع القرار الذاتي في ساحة المعركة

وقد شجعت وزارة الدفاع اتخاذ تدابير عالمية لمراقبة أسلحة الذكاء الاصطناعي من خلال دعوة الدول الأخرى إلى تأييد الإعلان السياسي بشأن الاستخدام العسكري المسؤول للذكاء الاصطناعي والحكم الذاتي، وحتى نوفمبر/تشرين الثاني، أيدت 47 دولة هذه المبادرة.

وقال هورويتز خلال جلسة نقاش عقدت في 9 كانون الثاني/يناير إن وزارة الدفاع تركز اهتمامها على بناء ثقة الجمهور في التكنولوجيا وأن الوزارة ملتزمة بالالتزام بالقانون الإنساني الدولي.

وقال براكيل: “الاختبار الحقيقي لأي توجيه جديد يجب أن يكون في عدد الأسلحة التي يستبعدها أو يعدلها بشكل كبير”.

“لم نر بعد أي دليل على أن التغييرات في التوجيه لها تأثير ملموس على كيفية تطوير الأسلحة.”

ولا يقتصر تطوير الأنظمة العسكرية المستقلة على الولايات المتحدة فحسب، بل إن الصين وروسيا تمتلكان ترساناتهما الخاصة من الأسلحة التي تعمل بالذكاء الاصطناعي والتي تستخدم حاليا في حربين.

وأعلن البنتاغون في تشرين الثاني/نوفمبر أنه سيطلق العنان للآلاف من المركبات ذاتية القيادة المدعومة بالذكاء الاصطناعي بحلول عام 2026 لمواكبة خصوم أمريكا.

تشعر المجموعات الإنسانية بالقلق من أن الأسلحة التي تعمل بالذكاء الاصطناعي يمكن أن تقع في الأيدي الخطأ أو تثير حربًا عن غير قصد من خلال الخلط بين شيء مثل ضوء الشمس وهجوم.

تشعر المجموعات الإنسانية بالقلق من أن الأسلحة التي تعمل بالذكاء الاصطناعي يمكن أن تقع في الأيدي الخطأ أو تثير حربًا عن غير قصد من خلال الخلط بين شيء مثل ضوء الشمس وهجوم.

تسعى المبادرة الطموحة – التي يطلق عليها اسم Replicator – إلى “تحفيز التقدم في التحول البطيء للغاية للابتكار العسكري الأمريكي للاستفادة من المنصات الصغيرة والذكية والرخيصة والكثيرة”، حسبما قالت نائبة وزير الدفاع كاثلين هيكس في أغسطس.

قال السيد هورويتز هذا الشهر: «إن جهاز النسخ نفسه يدور حول عملية ما». “يتعلق الأمر بمعرفة كيف… يمكننا نشر القدرات الرئيسية بسرعة وتوسيع نطاقها التي نعتبرها مهمة بالنظر إلى استراتيجية الدفاع الوطني.”

وقال هورويتز أيضًا إن وزارة الدفاع تركز على الليزر عندما يتعلق الأمر ببناء ثقة الجمهور في التكنولوجيا وأن الوزارة ملتزمة بالالتزام بالقانون الإنساني الدولي.

ومع ذلك، فإن الأعضاء الآخرين في FLI لا يلتزمون بالقواعد الأكثر صرامة وكيف سيرىهم البنتاغون.

وقالت آنا هيهير، التي تقود أبحاث أنظمة الأسلحة المستقلة لشركة FLI، لصحيفة The Hill: “إنه حقًا صندوق باندورا الذي بدأنا نراه مفتوحًا، وسيكون من الصعب جدًا العودة إليه”.

وأضافت: “أود أن أطالب البنتاغون بالنظر إلى استخدام الذكاء الاصطناعي في الاستخدام العسكري على قدم المساواة مع بداية العصر النووي”.

“لذا فهذه تقنية جديدة لا نفهمها. وإذا نظرنا إلى هذا في مضمار التسلح، وهو ما يفعله البنتاغون، فيمكننا أن نتجه إلى كارثة عالمية.