حذر العديد من خبراء التكنولوجيا من أن الذكاء الاصطناعي يسير على طريق الدمار، لكن دراسة جديدة لكبار الباحثين حددت فرص تسببه في انقراض الإنسان.
وسأل فريق من العلماء الدوليين 2778 خبيرًا في الذكاء الاصطناعي عن مستقبل الأنظمة، وأبلغ خمسة بالمائة أن التكنولوجيا ستؤدي إلى الانهيار.
لكن التقدير الأكثر إثارة للخوف جاء من واحد من كل 10 باحثين قال إن هناك احتمالًا صادمًا بنسبة 25% بأن الذكاء الاصطناعي سيدمر الجنس البشري.
وأشار الخبراء إلى ثلاثة أسباب محتملة: يسمح الذكاء الاصطناعي للمجموعات المهددة بصنع أدوات قوية، مثل الفيروسات المهندسة، “الحكام المستبدون الذين يستخدمون الذكاء الاصطناعي للسيطرة على شعوبهم وأنظمة الذكاء الاصطناعي تؤدي إلى تفاقم عدم المساواة الاقتصادية من خلال إفادة أفراد معينين بشكل غير متناسب”.
وقال ما يقرب من نصف الباحثين الذين شملهم الاستطلاع أن هناك فرصة بنسبة 10% أن يدمر الذكاء الاصطناعي البشرية
إن التحكم في تنظيم الذكاء الاصطناعي هو الحل الوحيد لحماية البشر، وإذا لم يتم تنظيم الذكاء الاصطناعي، فقد قدر الباحثون أن هناك فرصة بنسبة 10 بالمائة أن تتفوق الآلات على البشر في جميع المهام بحلول عام 2027، – لكنها سترتفع إلى فرصة 50 بالمائة. بحلول عام 2047.
سأل الاستطلاع الخبراء عن أربع مهن محددة من شأنها أن تصبح قابلة للتشغيل الآلي بالكامل، بما في ذلك سائقي الشاحنات، والجراحين، ومندوبي مبيعات التجزئة، والباحثين في مجال الذكاء الاصطناعي، وتلقوا الرد بأن هناك فرصة بنسبة 50 بالمائة أن يتولى الذكاء الاصطناعي السيطرة بالكامل بحلول عام 2116.
وقالت كاتيا جريس، إحدى مؤلفي الدراسة، لمجلة NewScientist: “إنها إشارة مهمة إلى أن معظم الباحثين في مجال الذكاء الاصطناعي لا يجدون أنه من غير المعقول بشدة أن يدمر الذكاء الاصطناعي المتقدم البشرية”.
وأضافت: “أعتقد أن هذا الاعتقاد العام بوجود مخاطر غير ضئيلة هو أكثر دلالة بكثير من النسبة المئوية الدقيقة للمخاطر”.
كان ما يقرب من 58% من الباحثين أكثر تفاؤلاً بشأن سيطرة الذكاء الاصطناعي، قائلين إن هناك فرصة بنسبة 5% فقط أن يتسبب في انقراض الإنسان.
وقد نشرت الأمم المتحدة بالفعل تحذيرات من الجماعات الإرهابية التي تستخدم الذكاء الاصطناعي لأغراض خبيثة، قائلة إنه سيصبح أداة أخرى تضاف إلى ترسانتها.
طرحت الدراسة على الباحثين سلسلة من الأسئلة لقياس مدى احتمالية تدمير الذكاء الاصطناعي للبشرية
“مع سجل حافل في عالم الجرائم الإلكترونية، يعد (الذكاء الاصطناعي) أداة قوية يمكن استخدامها لتعزيز أو تسهيل الإرهاب والتطرف العنيف الذي يفضي إلى الإرهاب، على سبيل المثال، من خلال توفير طرائق جديدة للهجمات الجسدية بطائرات بدون طيار أو وقالت مديرة الأمم المتحدة أنتونيا ماري دي ميو في تقرير للأمم المتحدة، إن “السيارات ذاتية القيادة، أو زيادة الهجمات الإلكترونية على البنية التحتية الحيوية، أو تمكين انتشار خطاب الكراهية والتحريض على العنف بطريقة أسرع وأكثر كفاءة”.
يأتي ذلك في الوقت الذي ساهم فيه الذكاء الاصطناعي في استبدال 37 بالمائة من الموظفين بالذكاء الاصطناعي في عام 2023، وفقًا لتقرير صادر عن ResumeBuilder.
أصدر مئات الخبراء، بما في ذلك الرئيس التنفيذي لشركة OpenAI، سام ألتمان، والرئيس التنفيذي لشركة Google DeepMind، ديميس هاسابيس، بيانًا من جملة واحدة في شهر مايو من العام الماضي، يطالبون فيه بمزيد من التحكم والتنظيم في مجال الذكاء الاصطناعي.
وقال البيان: “إن التخفيف من خطر الانقراض الناجم عن الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.
وقال دان هندريكس، المدير التنفيذي لمركز سلامة الذكاء الاصطناعي، في تصريح منفصل إفادة في ذلك الوقت: “كما هو مذكور في الجملة الأولى من صفحة الموقعين، هناك العديد من “المخاطر المهمة والعاجلة من الذكاء الاصطناعي”، وليس فقط خطر الانقراض؛ على سبيل المثال، التحيز المنهجي، والمعلومات المضللة، والاستخدام الضار، والهجمات الإلكترونية، والتسليح.
حتى “عراب الذكاء الاصطناعي”، جيفري هينتون، قال إنه نادم على خلق الذكاء الاصطناعي، على الرغم من أنه قال لصحيفة نيويورك تايمز: “أعزي نفسي بالعذر الطبيعي: لو لم أفعل ذلك، لكان شخص آخر قد فعل ذلك”.
ولا يزال هناك قدر كبير من عدم اليقين بشأن التأثير طويل المدى للذكاء الاصطناعي، واعترفت الدراسة بأن “التنبؤ صعب، حتى بالنسبة للخبراء”.
اترك ردك