يشعر جيفري هينتون ، “الأب الروحي للذكاء الاصطناعي” بالقلق. إليكم السبب.

سان فرانسيسكو (ا ف ب) – جيفري هينتون، عالم الكمبيوتر الحائز على جائزة والمعروف باسم “الأب الروحي للذكاء الاصطناعي” ، لديه بعض الأفكار الثانية الجادة حول ثمار جهوده.

ساعد هينتون في ريادة تقنيات الذكاء الاصطناعي الضرورية لجيل جديد من روبوتات المحادثة عالية القدرة مثل ChatGPT. لكن في المقابلات الأخيرة ، قال إنه استقال مؤخرًا من وظيفة رفيعة المستوى في Google خصيصًا لمشاركة مخاوفه من أن تطوير الذكاء الاصطناعي غير الخاضع للرقابة يمكن أن يشكل خطرًا على البشرية.

قال في مقابلة مع MIT Technology Review: “لقد غيرت وجهات نظري فجأة حول ما إذا كانت هذه الأشياء ستكون أكثر ذكاءً منا”.. “أعتقد أنهم قريبون جدًا منها الآن وسيكونون أكثر ذكاءً منا في المستقبل …. كيف ننجو من ذلك؟”

هينتون ليس وحده في مخاوفه. بعد وقت قصير من إطلاق شركة OpenAI الناشئة المدعومة من Microsoft ، أحدث نموذج للذكاء الاصطناعي يسمى GPT-4 في مارس ، وقع أكثر من 1000 باحث وتقني على خطاب يدعو إلى التوقف لمدة ستة أشهر عن تطوير الذكاء الاصطناعي. لأنها ، كما قالوا ، تشكل “مخاطر جسيمة على المجتمع والإنسانية”.

فيما يلي نظرة على أكبر مخاوف هينتون بشأن مستقبل الذكاء الاصطناعي … والإنسانية.

كل شيء يتعلق بالشبكات العصبية

يمكن لأدمغتنا البشرية حل معادلات التفاضل والتكامل وقيادة السيارات وتتبع الشخصيات في “التعاقب” بفضل موهبتهم الأصلية في تنظيم وتخزين المعلومات واستنتاج الحلول للمشاكل الشائكة. ما يقرب من 86 مليار خلية عصبية معبأة في جماجمنا – والأهم من ذلك ، 100 تريليون وصلة تلك الخلايا العصبية التي تشكلها هذه الخلايا العصبية فيما بينها – تجعل ذلك ممكنًا.

على النقيض من ذلك ، فإن التكنولوجيا الكامنة وراء ChatGPT تتميز بما بين 500 مليار وتريليون اتصال ، كما قال هينتون في المقابلة. بينما يبدو أن هذا يضعها في وضع غير مواتٍ بالنسبة لنا ، يلاحظ هينتون أن GPT-4 ، أحدث نموذج ذكاء اصطناعي من شركة OpenAI ، يعرف “مئات المرات أكثر” من أي إنسان بمفرده. ربما ، كما يقترح ، لديها “خوارزمية تعلم أفضل بكثير” مما لدينا ، مما يجعلها أكثر كفاءة في المهام المعرفية.

قد يكون الذكاء الاصطناعي بالفعل أكثر ذكاءً منا

لاحظ الباحثون منذ فترة طويلة أن الشبكات العصبية الاصطناعية تستغرق وقتًا أطول بكثير لاستيعاب وتطبيق المعرفة الجديدة أكثر مما يحتاجه الأشخاص ، لأن تدريبهم يتطلب كميات هائلة من الطاقة والبيانات. يقول هينتون إن الأمر لم يعد كذلك ، مشيرًا إلى أن أنظمة مثل GPT-4 يمكنها تعلم أشياء جديدة بسرعة كبيرة بمجرد تدريب الباحثين بشكل صحيح. هذا لا يختلف عن الطريقة التي يمكن بها للفيزيائية المحترفة المدربة أن تلف دماغها حول النتائج التجريبية الجديدة بسرعة أكبر بكثير مما يمكن لطالب العلوم العادي في المدرسة الثانوية.

يقود هذا هينتون إلى استنتاج مفاده أن أنظمة الذكاء الاصطناعي قد تكون تفوقنا بالفعل. وأشار إلى أنه لا يمكن لأنظمة الذكاء الاصطناعي تعلم الأشياء بشكل أسرع فحسب ، بل يمكنها أيضًا مشاركة نسخ من معرفتها مع بعضها البعض على الفور تقريبًا.

وقال للصحيفة “إنه شكل مختلف تمامًا من الذكاء”. “شكل جديد وأفضل من أشكال الذكاء.”

حروب وشائعات عن الحروب

ما الذي يمكن أن تفعله أنظمة الذكاء الاصطناعي الأكثر ذكاءً من البشر؟ أحد الاحتمالات المقلقة هو أن الأفراد أو الجماعات أو الدول القومية الخبيثة قد تختارهم ببساطة لتحقيق غاياتهم الخاصة. يشعر هينتون بالقلق بشكل خاص من إمكانية تدريب هذه الأدوات للتأثير في الانتخابات وحتى لشن الحروب.

على سبيل المثال ، يمكن أن تكون المعلومات المضللة المتعلقة بالانتخابات التي تنتشر عبر روبوتات الدردشة التي تعمل بالذكاء الاصطناعي هي النسخة المستقبلية من المعلومات المضللة عن الانتخابات المنتشرة عبر Facebook ومنصات التواصل الاجتماعي الأخرى.

وقد تكون هذه مجرد البداية. قال هينتون في المقال: “لا تفكر للحظة في أن بوتين لن يصنع روبوتات فائقة الذكاء بهدف قتل الأوكرانيين”. “لن يتردد.”

نقص الحلول

ما هو غير واضح هو كيف يمكن لأي شخص أن يمنع قوة مثل روسيا من استخدام تكنولوجيا الذكاء الاصطناعي للسيطرة على جيرانها أو مواطنيها. يقترح هينتون أن اتفاقية عالمية مماثلة لاتفاقية الأسلحة الكيميائية لعام 1997 قد تكون خطوة أولى جيدة نحو وضع قواعد دولية ضد الذكاء الاصطناعي المُسلح.

على الرغم من أنه من الجدير بالذكر أيضًا أن اتفاق الأسلحة الكيميائية لم يوقف ما وجده المحققون على الأرجح هجمات سورية باستخدام غاز الكلور وغاز الأعصاب السارين ضد المدنيين في عامي 2017 و 2018 خلال الحرب الأهلية الدموية في البلاد.