يحذر العلماء من مخاطر الذكاء الاصطناعي لكنهم لا يتفقون على الحلول

كمبريدج ، ماساتشوستس (AP) – يحذر علماء الكمبيوتر الذين ساعدوا في بناء أسس تقنية الذكاء الاصطناعي الحالية من مخاطرها ، لكن هذا لا يعني أنهم يتفقون على ماهية هذه المخاطر أو كيفية منعها.

قال جيفري هينتون ، الأب الروحي لمنظمة العفو الدولية ، في مؤتمر يوم الأربعاء في معهد ماساتشوستس للتكنولوجيا ، إن بقاء البشرية مهدد عندما “يمكن للأشياء الذكية أن تتفوق علينا”.

قال هينتون: “قد يبقينا في الجوار لبعض الوقت للحفاظ على تشغيل محطات الطاقة”. “لكن بعد ذلك ، ربما لا.”

بعد تقاعده من Google حتى يتمكن من التحدث بحرية أكبر، قال هينتون البالغ من العمر 75 عامًا إنه غيّر مؤخرًا وجهات نظره حول القدرات المنطقية لأنظمة الكمبيوتر التي أمضى حياته في البحث عنها.

قال هينتون ، مخاطبًا الحشد الذي حضر مؤتمر EmTech Digital التابع لـ MIT Technology Review من منزله عبر الفيديو: “هذه الأشياء ستتعلم منا ، من خلال قراءة كل الروايات التي كانت وكل ما كتبه ميكافيللي على الإطلاق ، وكيفية التلاعب بالناس”. “حتى لو لم يتمكنوا من سحب الرافعات بشكل مباشر ، يمكنهم بالتأكيد دفعنا إلى سحب الرافعات.”

وأضاف: “أتمنى لو كان لدي حل بسيط لطيف يمكنني دفعه ، لكنني لا أملك”. “لست متأكدًا من وجود حل.”

زميل رائد الذكاء الاصطناعي يوشوا بنجيو ، الفائز بالاشتراك مع هينتون بالجائزة الأولى في علوم الكمبيوتر، لوكالة أسوشيتيد برس يوم الأربعاء أنه “متوافق إلى حد كبير” مع مخاوف هينتون التي تسببها روبوتات الدردشة مثل ChatGPT والتكنولوجيا ذات الصلة ، لكن القلق من أن مجرد قول “محكوم علينا بالفشل” لن يساعد.

قال بينجيو ، الأستاذ في جامعة مونتريال ، “إن الاختلاف الرئيسي ، في رأيي ، هو أنه شخص متشائم نوعاً ما ، وأنا أكثر تفاؤلاً”. “أعتقد أن المخاطر – قصيرة المدى وطويلة الأجل – خطيرة للغاية ويجب أن تؤخذ على محمل الجد ليس فقط من قبل عدد قليل من الباحثين ولكن الحكومات والسكان.”

هناك الكثير من الدلائل على أن الحكومات تستمع. استدعى البيت الأبيض الرؤساء التنفيذيين لـ Google و Microsoft و ChatGPT صانع OpenAI للاجتماع يوم الخميس مع نائب الرئيس كامالا هاريس فيما وصفه المسؤولون بأنه نقاش صريح حول كيفية التخفيف من المخاطر على المدى القريب والبعيد. تقنيتهم. يعمل المشرعون الأوروبيون أيضًا على تسريع المفاوضات لتمرير قواعد جديدة شاملة للذكاء الاصطناعي.

لكن كل الحديث عن أخطار المستقبل الأكثر خطورة لديه بعض القلق من أن الضجيج حول الآلات الخارقة – التي لم توجد بعد – يصرف الانتباه عن محاولات وضع ضمانات عملية على منتجات الذكاء الاصطناعي الحالية غير المنظمة إلى حد كبير.

قالت مارجريت ميتشل ، القائدة السابقة في فريق أخلاقيات الذكاء الاصطناعي في جوجل ، إنها منزعجة لأن هينتون لم تتحدث خلال عقده في منصب السلطة في جوجل ، خاصة بعد الإطاحة بالعالم الأسود البارز تيمنيت جيبرو في عام 2020.، الذي درس أضرار نماذج اللغات الكبيرة قبل تسويقها على نطاق واسع في منتجات مثل ChatGPT و Google’s Bard.

“إنه لامتياز أن يتمكن من القفز من حقائق انتشار التمييز الآن ، ونشر لغة الكراهية ، والسمية ، والمواد الإباحية غير المتوافقة مع النساءقال ميتشل ، الذي أُجبر أيضًا على الخروج من Google في أعقاب مغادرة جيبرو: “إنه يتخطى كل هذه الأشياء ليقلق بشأن شيء أبعد.”

حصل كل من بنجيو وهينتون والباحث الثالث ، يان ليكون ، الذي يعمل في شركة Meta الأم على Facebook ، على جائزة Turing في عام 2019 لما حققوه من اختراقات في مجال الشبكات العصبية الاصطناعية ، والتي كانت مفيدة في تطوير تطبيقات الذكاء الاصطناعي الحالية مثل ChatGPT.

أعرب بنجيو ، الوحيد من بين الثلاثة الذين لم يعملوا مع عملاق تقني ، عن مخاوفه لسنوات بشأن مخاطر الذكاء الاصطناعي على المدى القريب ، بما في ذلك زعزعة استقرار سوق العمل ، والأسلحة الآلية ومخاطر مجموعات البيانات المتحيزة.

لكن هذه المخاوف نمت مؤخرًا ، مما دفع بنجيو للانضمام إلى علماء الكمبيوتر الآخرين وقادة الأعمال التقنية مثل إيلون موسك والمؤسس المشارك لشركة آبل ستيف وزنياك في الدعوة إلى التوقف لمدة ستة أشهر لتطوير أنظمة الذكاء الاصطناعي الأكثر قوة من أحدث طراز من OpenAI ، GPT-4 .

قال بينجيو يوم الأربعاء إنه يعتقد أن أحدث نماذج لغة الذكاء الاصطناعي اجتازت بالفعل “اختبار تورينج” الذي سمي على اسم قاطع الشفرات البريطاني وطريقة رائد الذكاء الاصطناعي آلان تورينج تم تقديمه في عام 1950 لقياس متى يتعذر تمييز الذكاء الاصطناعي عن الإنسان – على الأقل على السطح.

قال بينجيو: “هذا معلم يمكن أن يكون له عواقب وخيمة إذا لم نكن حذرين”. “شاغلي الرئيسي هو كيف يمكن استغلالها لأغراض شائنة لزعزعة استقرار الديمقراطيات ، أو الهجمات الإلكترونية ، أو المعلومات المضللة. يمكنك إجراء محادثة مع هذه الأنظمة والاعتقاد أنك تتفاعل مع إنسان. من الصعب اكتشافهم “.

من غير المرجح أن يتفق الباحثون على كيفية أن أنظمة لغة الذكاء الاصطناعي الحالية – التي لها العديد من القيود ، بما في ذلك الميل إلى اختلاق المعلومات – ستصبح في الواقع أكثر ذكاءً من البشر ، ليس فقط في حفظ كم هائل من المعلومات ، ولكن في إظهار مهارات تفكير أعمق.

كان Aidan Gomez أحد المؤلفين المشاركين لورقة البحث الرائدة لعام 2017 التي قدمت ما يسمى بتقنية المحولات – “T” في نهاية ChatGPT – لتحسين أداء أنظمة التعلم الآلي ، لا سيما في كيفية التعلم من المقاطع من النص. ثم يتذكر غوميز ، وهو متدرب يبلغ من العمر 20 عامًا فقط في Google ، أنه كان مستلقيًا على أريكة في مقر الشركة في كاليفورنيا عندما أرسل فريقه الورقة في حوالي الساعة الثالثة صباحًا عندما كان موعدها محددًا.

“أيدان ، سيكون هذا ضخمًا للغاية ،” يتذكر زميله أخبره عن العمل الذي ساعد منذ ذلك الحين في الوصول إلى أنظمة جديدة يمكن أن تولد نثرًا وصورًا شبيهة بالبشر.

بعد ست سنوات ، وهو الآن الرئيس التنفيذي لشركة الذكاء الاصطناعي الخاصة به المسماة Cohere ، والتي استثمر فيها هينتون ، غوميز متحمس للتطبيقات المحتملة لهذه الأنظمة ولكنه منزعج من إثارة الخوف التي يقول إنها “منفصلة عن الواقع” لقدراتها الحقيقية و “تعتمد على قفزات غير عادية من الخيال والتفكير “.

قال غوميز: “إن الفكرة القائلة بأن هذه النماذج ستتمكن بطريقة ما من الوصول إلى أسلحتنا النووية وإطلاق حدث ما على مستوى الانقراض ليس خطابًا مثمرًا.” “إنه ضار لتلك الجهود السياسية الواقعية التي تحاول فعل شيء جيد.”

عندما سُئل عن استثماراته في Cohere يوم الأربعاء في ضوء مخاوفه الأوسع بشأن الذكاء الاصطناعي ، قال هينتون إنه ليس لديه خطط لسحب استثماراته لأنه لا يزال هناك العديد من التطبيقات المفيدة للنماذج اللغوية في الطب وأماكن أخرى. وقال أيضًا إنه لم يتخذ أي قرارات سيئة في متابعة البحث الذي بدأه في السبعينيات.

قال هينتون: “حتى وقت قريب جدًا ، كنت أعتقد أن هذه الأزمة الوجودية كانت بعيدة المنال”. “لذلك أنا حقًا لا أشعر بأي ندم على ما فعلته.”