يحذر تقرير وزارة الخارجية من أن الذكاء الاصطناعي يشكل تهديدًا “على مستوى الانقراض” ويجب منح الحكومة الأمريكية “صلاحيات طوارئ” جديدة للسيطرة على التكنولوجيا

تدعو دراسة جديدة ممولة من وزارة الخارجية الأمريكية إلى فرض حظر مؤقت على إنشاء ذكاء اصطناعي متقدم يتجاوز عتبة معينة من القوة الحسابية.

ويزعم مؤلفوها أن هذه التقنية تشكل “تهديدًا على مستوى الانقراض للجنس البشري”.

وتدعو الدراسة، التي تم التكليف بها كجزء من عقد فيدرالي بقيمة 250 ألف دولار، أيضًا إلى “تحديد صلاحيات الطوارئ” للسلطة التنفيذية للحكومة الأمريكية “للرد على الحوادث الخطيرة والسريعة المتعلقة بالذكاء الاصطناعي” – مثل “سرب الروبوتات”.

إن التعامل مع رقائق الكمبيوتر المتطورة باعتبارها سلعًا محظورة دوليًا، وحتى مراقبة كيفية استخدام الأجهزة، ليست سوى بعض من التدابير الجذرية التي تدعو إليها الدراسة الجديدة.

وينضم التقرير إلى مجموعة من الأصوات الصناعية والحكومية والأكاديمية التي تدعو إلى إيلاء اهتمام تنظيمي قوي لإمكانات الذكاء الاصطناعي التي يتم متابعتها بشدة والتي تغير قواعد اللعبة، ولكنها مدمرة اجتماعيًا.

في يوليو الماضي، قامت وكالة الأمم المتحدة للعلوم والثقافة (اليونسكو)، على سبيل المثال، بربط مخاوفها المتعلقة بالذكاء الاصطناعي بمخاوف مستقبلية مماثلة بشأن تكنولوجيا شرائح الدماغ، على غرار شركة نيورالينك التي أنشأها إيلون ماسك، وحذرت من “المراقبة العصبية” التي تنتهك “الخصوصية العقلية”.

تدعو دراسة جديدة مولتها وزارة الخارجية الأمريكية أجراها جلادستون للذكاء الاصطناعي (أعلاه)، كجزء من عقد فيدرالي بقيمة 250 ألف دولار، إلى “تحديد صلاحيات الطوارئ” للسلطة التنفيذية للحكومة الأمريكية “للرد على التهديدات الخطيرة والسريعة المتعلقة بالذكاء الاصطناعي”. الحوادث

يطرح تقرير Gladstone AI سيناريو بائسًا مفاده أن الآلات قد تقرر بنفسها أن الإنسانية هي عدو يجب القضاء عليه، على غرار أفلام Terminator:

يطرح تقرير Gladstone AI سيناريو بائسًا مفاده أن الآلات قد تقرر بنفسها أن الإنسانية هي عدو يجب القضاء عليه، على غرار أفلام Terminator: “إذا تم تطويرها باستخدام التقنيات الحالية، فيمكن أن يتصرف (الذكاء الاصطناعي) بشكل معاكس للبشر بشكل افتراضي”.

وبينما يشير التقرير الجديد مقدمًا، في صفحته الأولى، إلى أن توصياته “لا تعكس آراء وزارة الخارجية الأمريكية أو حكومة الولايات المتحدة”، فإن مؤلفيه يطلعون الحكومة على الذكاء الاصطناعي منذ عام 2021.

قال مؤلفو الدراسة، وهي شركة استشارية للذكاء الاصطناعي مكونة من أربعة أشخاص تدعى شركة جلادستون للذكاء الاصطناعي ويديرها الأخوان جيريمي وإدوارد هاريس، لمجلة تايم إن عروضهم السابقة حول مخاطر الذكاء الاصطناعي كانت تُسمع في كثير من الأحيان من قبل المسؤولين الحكوميين الذين ليس لديهم سلطة التصرف.

وقالوا للمجلة إن هذا تغير مع وزارة الخارجية الأمريكية، لأن مكتبها للأمن الدولي ومنع انتشار الأسلحة النووية مكلف بشكل خاص بالحد من انتشار الأسلحة الجديدة الكارثية.

ويكرس تقرير جلادستون للذكاء الاصطناعي قدرًا كبيرًا من الاهتمام لـ “مخاطر التسليح”.

في السنوات الأخيرة، قدم جيريمي هاريس، الرئيس التنفيذي لشركة جلادستون للذكاء الاصطناعي (في الصورة)، عرضًا أمام اللجنة الدائمة المعنية بالصناعة والتكنولوجيا في مجلس العموم الكندي (في الصورة)

في السنوات الأخيرة، قدم جيريمي هاريس، الرئيس التنفيذي لشركة جلادستون للذكاء الاصطناعي (في الصورة)، عرضًا أمام اللجنة الدائمة المعنية بالصناعة والتكنولوجيا في مجلس العموم الكندي (في الصورة)

هناك انقسام كبير في مجال الذكاء الاصطناعي في وادي السيليكون.  تنقسم العقول اللامعة حول التقدم الذي تحرزه الأنظمة - يقول البعض إنها ستؤدي إلى تحسين البشرية، ويخشى آخرون أن تدمرها التكنولوجيا

هناك انقسام كبير في مجال الذكاء الاصطناعي في وادي السيليكون. تنقسم العقول اللامعة حول التقدم الذي تحرزه الأنظمة – يقول البعض إنها ستؤدي إلى تحسين البشرية، ويخشى آخرون أن تدمرها التكنولوجيا

وكتبوا أن الذكاء الاصطناعي المتقدم والهجومي “يمكن استخدامه لتصميم وحتى تنفيذ هجمات بيولوجية أو كيميائية أو إلكترونية كارثية، أو تمكين تطبيقات مسلحة غير مسبوقة في سرب الروبوتات”.

لكن التقرير يطرح سيناريو ثانيًا أكثر بؤسًا، والذي يصفونه بأنه خطر “فقدان السيطرة” على الذكاء الاصطناعي.

وكتبوا أن هناك “سببًا للاعتقاد بأنهم (الذكاء الاصطناعي المسلح) قد لا يمكن السيطرة عليهم إذا تم تطويرهم باستخدام التقنيات الحالية، ويمكن أن يتصرفوا بشكل معاكس للبشر بشكل افتراضي”.

بمعنى آخر، قد تقرر الآلات بنفسها أن الإنسانية (أو مجموعة فرعية من البشرية) هي مجرد عدو يجب القضاء عليه إلى الأبد.

كما قدم جيريمي هاريس، الرئيس التنفيذي لشركة Gladstone AI، سيناريوهات خطيرة مماثلة قبل جلسات الاستماع التي عقدتها اللجنة الدائمة المعنية بالصناعة والتكنولوجيا داخل مجلس العموم الكندي العام الماضي، في 5 ديسمبر 2023.

وقال هاريس للمشرعين الكنديين: “ليس من المبالغة أن نقول إن المحادثات الباردة في مجتمع سلامة الذكاء الاصطناعي الحدودي تضع الذكاء الاصطناعي في المستقبل القريب كسلاح للدمار الشامل”.

“علنًا وسرًا، تخبرنا مختبرات الذكاء الاصطناعي الحدودية أن نتوقع أن تكون أنظمة الذكاء الاصطناعي قادرة على تنفيذ هجمات كارثية للبرامج الضارة ودعم تصميم الأسلحة البيولوجية، من بين العديد من القدرات المثيرة للقلق الأخرى، في السنوات القليلة المقبلة،” وفقًا لتغطية IT World Canada لأبحاثه. ملاحظات.

وقال: «إن بحثنا الخاص يشير إلى أن هذا تقييم معقول».

وأشار هاريس وزملاؤه في تقريرهم الجديد لوزارة الخارجية إلى أن شركات الذكاء الاصطناعي الممولة بكثافة في القطاع الخاص تواجه “حافزًا للتوسع” مذهلًا للتغلب على منافستها أكثر من أي “حافز للاستثمار في السلامة أو الأمن”.

وينصحون بأن الوسيلة الوحيدة القابلة للتطبيق لضخ الفواصل في السيناريو الخاص بهم هي خارج الفضاء الإلكتروني، من خلال التنظيم الصارم لرقائق الكمبيوتر المتطورة المستخدمة لتدريب أنظمة الذكاء الاصطناعي في العالم الحقيقي.

ويصف تقرير جلادستون للذكاء الاصطناعي أعمال منع الانتشار على هذه الأجهزة بأنها “أهم شرط لحماية السلامة والأمن العالميين على المدى الطويل من الذكاء الاصطناعي”.

ولم يكن هذا اقتراحًا طفيفًا، نظرًا للاحتمال الحتمي لصرخات الصناعة: “إنها توصية صعبة للغاية، وقد أمضينا الكثير من الوقت في البحث عن طرق لاقتراح تدابير مثل هذه”.

أحد إخوة هاريس الذين شاركوا في إعداد التقرير الجديد، هو المسؤول السابق بوزارة الدفاع، مارك بيل، الذي عمل كرئيس للاستراتيجية والسياسة لمركز الذكاء الاصطناعي المشترك التابع للبنتاغون خلال سنوات خدمته الحكومية.

يبدو أن بيل يتصرف بشكل عاجل بشأن التهديدات التي حددها التقرير الجديد: فقد غادر رئيس استراتيجية الذكاء الاصطناعي السابق بوزارة الدفاع جلادستون منذ ذلك الحين لإطلاق لجنة عمل سياسية فائقة مخصصة لمخاطر الذكاء الاصطناعي.

تم إطلاق PAC، التي يطلق عليها اسم “أمريكيون من أجل سلامة الذكاء الاصطناعي”، يوم الاثنين مع الأمل المعلن في “تمرير تشريعات سلامة الذكاء الاصطناعي بحلول نهاية عام 2024”.