لقد طور الذكاء الاصطناعي بالفعل مهارة شريرة يقول العلماء إنها قد تؤدي إلى “دوامة”

حذر الخبراء من أن العديد من أنظمة الذكاء الاصطناعي (AI) ماهرة بالفعل في خداع البشر والتلاعب بهم، وقد يتصاعد هذا الأمر في المستقبل.

قال العلماء إنه في السنوات الأخيرة، نما استخدام الذكاء الاصطناعي بشكل كبير، لكن بعض الأنظمة تعلمت كيف تكون مخادعة، حتى لو تم تدريبها لتكون مفيدة وصادقة.

في مقالة مراجعة، يصف فريق من معهد ماساتشوستس للتكنولوجيا مخاطر الخداع بواسطة أنظمة الذكاء الاصطناعي ويدعو الحكومات إلى وضع لوائح قوية لمعالجة هذه المشكلة في أقرب وقت ممكن.

وقام الباحثون بتحليل الدراسات السابقة التي ركزت على الطرق التي ينشر بها الذكاء الاصطناعي معلومات كاذبة من خلال الخداع المتعلم، مما يعني أنهم تعلموا بشكل منهجي كيفية التلاعب بالآخرين.

فريق من معهد ماساتشوستس للتكنولوجيا يصف مخاطر الخداع بواسطة أنظمة الذكاء الاصطناعي ويدعو الحكومات إلى وضع لوائح قوية لمعالجة هذه المشكلة في أسرع وقت ممكن

وكان أبرز مثال على خداع الذكاء الاصطناعي الذي اكتشفوه هو نظام Meta’s CICERO، وهو نظام مصمم لممارسة لعبة غزو العالم الدبلوماسية التي تتضمن بناء التحالفات.

على الرغم من أن الذكاء الاصطناعي تم تدريبه ليكون “صادقًا ومفيدًا إلى حد كبير” و”لا يطعن أبدًا” حلفائه من البشر، إلا أن البيانات تظهر أنه لم يتصرف بنزاهة وتعلم أن يكون بارعًا في الخداع.

أظهرت أنظمة الذكاء الاصطناعي الأخرى القدرة على الخداع في لعبة بوكر Texas Hold 'em ضد لاعبين بشريين محترفين، وتزييف الهجمات أثناء اللعبة الإستراتيجية Starcraft II من أجل هزيمة الخصوم، وتحريف تفضيلاتهم من أجل الحصول على اليد العليا في اللعبة. المفاوضات الاقتصادية.

وقال الخبراء إنه على الرغم من أن الأمر قد يبدو غير ضار إذا قامت أنظمة الذكاء الاصطناعي بالغش في الألعاب، إلا أن ذلك يمكن أن يؤدي إلى “اختراقات في قدرات الذكاء الاصطناعي الخادعة” التي يمكن أن تتحول إلى أشكال أكثر تقدمًا من خداع الذكاء الاصطناعي في المستقبل.

ووجدوا أن بعض أنظمة الذكاء الاصطناعي تعلمت الغش في الاختبارات المصممة لتقييم سلامتها.

في إحدى الدراسات، قامت كائنات الذكاء الاصطناعي الموجودة في جهاز محاكاة رقمي “بالموت” من أجل خداع اختبار تم تصميمه للقضاء على أنظمة الذكاء الاصطناعي التي تتكرر بسرعة.

وقال المؤلفون إن هذا يشير إلى أن الذكاء الاصطناعي يمكن أن “يقود البشر إلى شعور زائف بالأمان”.

وحذروا من أن المخاطر الرئيسية قصيرة المدى للذكاء الاصطناعي الخادع تشمل تسهيل ارتكاب الأشخاص عمليات الاحتيال والتلاعب بالانتخابات.

وأضافوا أنه في نهاية المطاف، إذا تمكنت هذه الأنظمة من تحسين مجموعة المهارات المثيرة للقلق هذه، فقد يفقد البشر السيطرة عليها.

وقال المؤلف الأول بيتر بارك، الخبير في السلامة الوجودية للذكاء الاصطناعي: “ليس لدى مطوري الذكاء الاصطناعي فهم واثق لما يسبب سلوكيات الذكاء الاصطناعي غير المرغوب فيها مثل الخداع”.

“لكن بشكل عام، نعتقد أن خداع الذكاء الاصطناعي ينشأ لأن الإستراتيجية القائمة على الخداع تبين أنها أفضل طريقة لأداء جيد في مهمة تدريب الذكاء الاصطناعي المحددة. الخداع يساعدهم على تحقيق أهدافهم.

“نحن كمجتمع نحتاج إلى أكبر قدر ممكن من الوقت للاستعداد للخداع الأكثر تقدمًا لمنتجات الذكاء الاصطناعي المستقبلية والنماذج مفتوحة المصدر.

“مع تقدم القدرات الخادعة لأنظمة الذكاء الاصطناعي، فإن المخاطر التي تشكلها على المجتمع ستصبح خطيرة بشكل متزايد.”

وتعليقًا على المراجعة، قالت الدكتورة هبة صايلم، رئيس مجموعة أبحاث الذكاء الاصطناعي الطبي الحيوي وعلوم البيانات: “تسلط هذه الورقة الضوء على الاعتبارات الحاسمة لمطوري الذكاء الاصطناعي وتؤكد على الحاجة إلى تنظيم الذكاء الاصطناعي.

“هناك قلق كبير يتمثل في أن أنظمة الذكاء الاصطناعي قد تطور استراتيجيات خادعة، حتى عندما يكون تدريبها يهدف عمدا إلى الحفاظ على المعايير الأخلاقية.

“نظرًا لأن نماذج الذكاء الاصطناعي أصبحت أكثر استقلالية، فإن المخاطر المرتبطة بهذه الأنظمة يمكن أن تتصاعد بسرعة.

“لذلك، من المهم رفع مستوى الوعي وتقديم التدريب على المخاطر المحتملة لمختلف أصحاب المصلحة لضمان سلامة أنظمة الذكاء الاصطناعي.”