يدعي الدكتور رومان في يامبولسكي أنه لم يجد أي دليل على إمكانية التحكم في الذكاء الاصطناعي، وبالتالي لا ينبغي تطويره
أعاد باحث مدعوم من إيلون موسك دق ناقوس الخطر بشأن تهديد الذكاء الاصطناعي للبشرية بعد عدم العثور على دليل على إمكانية التحكم في التكنولوجيا.
تلقى الدكتور رومان في يامبولسكي، خبير سلامة الذكاء الاصطناعي، تمويلًا من الملياردير لدراسة الأنظمة الذكية المتقدمة التي هي محور كتابه القادم “الذكاء الاصطناعي: غير قابل للتفسير، ولا يمكن التنبؤ به، ولا يمكن السيطرة عليه”.
ويتناول الكتاب كيف أن الذكاء الاصطناعي لديه القدرة على إعادة تشكيل المجتمع بشكل كبير، وليس دائمًا لصالحنا، ولديه “القدرة على التسبب في كارثة وجودية”.
أجرى يامسولسكي، وهو أستاذ في جامعة لويزفيل، “فحصًا للأدبيات العلمية حول الذكاء الاصطناعي” وخلص إلى أنه لا يوجد دليل على أنه يمكن منع التكنولوجيا من أن تصبح مارقة.
وللسيطرة الكاملة على الذكاء الاصطناعي، اقترح أنه من الضروري القيام بذلك أن تكون قابلة للتعديل باستخدام خيارات “التراجع”، وأن تكون محدودة وشفافة وسهلة الفهم باللغة البشرية.
وقال يامسولسكي في بيان: “لا عجب أن الكثيرين يعتبرون هذه المشكلة هي أهم مشكلة واجهتها البشرية على الإطلاق”.
“النتيجة يمكن أن تكون الرخاء أو الانقراض، ومصير الكون على المحك.”
للتحكم الكامل في الذكاء الاصطناعي، اقترح أنه يجب أن يكون قابلاً للتعديل باستخدام خيارات “التراجع”، وأن يكون محدودًا وشفافًا وسهل الفهم باللغة البشرية.
يُقال إن ماسك قدم التمويل لشركة Yampsolskiy في الماضي، لكن المبلغ والتفاصيل غير معروفة.
في عام 2019، كتب يامسولسكي منشورًا على مدونة Medium يشكر فيه Musk “لتمويل عمله جزئيًا في مجال سلامة الذكاء الاصطناعي”.
كما دق الرئيس التنفيذي لشركة Tesla ناقوس الخطر بشأن الذكاء الاصطناعي، وتحديداً في عام 2023 عندما وقع هو وأكثر من 33000 من خبراء الصناعة على خطاب مفتوح حول معهد مستقبل الحياة.
شاركت الرسالة أن مختبرات الذكاء الاصطناعي حاليًا “محصورة في سباق خارج عن السيطرة لتطوير ونشر عقول رقمية أكثر قوة لا يستطيع أحد – ولا حتى منشئوها – فهمها أو التنبؤ بها أو التحكم فيها بشكل موثوق.”
“يجب تطوير أنظمة الذكاء الاصطناعي القوية فقط عندما نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون قابلة للتحكم.”
ويبدو أن كتاب يامبولسكي القادم يردد صدى هذه المخاوف.
وأثار مخاوف بشأن الأدوات الجديدة التي تم تطويرها في السنوات الأخيرة فقط والتي تشكل مخاطر على البشرية، بغض النظر عن الفائدة التي توفرها هذه النماذج.
في السنوات الأخيرة، شهد العالم بدء الذكاء الاصطناعي في إنشاء الاستعلامات وكتابة رسائل البريد الإلكتروني وكتابة التعليمات البرمجية.
كما دق إيلون ماسك ناقوس الخطر بشأن الذكاء الاصطناعي، وتحديدًا في عام 2023 عندما وقع هو وأكثر من 33000 من خبراء الصناعة على خطاب مفتوح حول معهد مستقبل الحياة
والآن، تعمل هذه الأنظمة على اكتشاف السرطان، وإنشاء أدوية جديدة، واستخدامها للبحث عن الأهداف ومهاجمتها في ساحة المعركة.
وتوقع الخبراء أن تحقق التكنولوجيا التفرد بحلول عام 2045، وهو الوقت الذي تتفوق فيه التكنولوجيا على الذكاء البشري ولديها القدرة على إعادة إنتاج نفسها، وحينها قد لا نتمكن من السيطرة عليها.
قال يامبولسكي: “لماذا يفترض الكثير من الباحثين أن مشكلة التحكم في الذكاء الاصطناعي قابلة للحل؟
“على حد علمنا، ليس هناك دليل على ذلك، لا دليل. قبل الشروع في السعي لبناء ذكاء اصطناعي يمكن التحكم فيه، من المهم إظهار أن المشكلة قابلة للحل.
وبينما قال الباحث إنه أجرى مراجعة واسعة النطاق للتوصل إلى الاستنتاج، فإن الأدبيات التي تم استخدامها بالضبط غير معروفة في هذه المرحلة.
ما قدمه يامبولسكي هو أسباب اعتقاده بأنه لا يمكن التحكم في الذكاء الاصطناعي، حيث يمكن للتكنولوجيا أن تتعلم وتتكيف وتتصرف بشكل شبه مستقل.
وأوضح أن مثل هذه القدرات تجعل قدرات اتخاذ القرار لا نهائية، وهذا يعني أن هناك عددًا لا حصر له من مشكلات السلامة التي يمكن أن تنشأ.
ولأن التكنولوجيا تتكيف مع تطورها، فقد لا يتمكن البشر من التنبؤ بالمشكلات.
وتوقع الخبراء أن تحقق التكنولوجيا التفرد بحلول عام 2045، وهو الوقت الذي تتفوق فيه التكنولوجيا على الذكاء البشري الذي لا نستطيع السيطرة عليه
وقال يامبولسكي: “إذا لم نفهم قرارات الذكاء الاصطناعي ولم يكن لدينا سوى “الصندوق الأسود”، فلن نتمكن من فهم المشكلة وتقليل احتمالية وقوع حوادث في المستقبل”.
“على سبيل المثال، تم بالفعل تكليف أنظمة الذكاء الاصطناعي باتخاذ القرارات في مجالات الرعاية الصحية والاستثمار والتوظيف والخدمات المصرفية والأمن، على سبيل المثال لا الحصر.”
ويجب أن تكون مثل هذه الأنظمة قادرة على شرح كيفية وصولها إلى قراراتها، وخاصة لإظهار أنها خالية من التحيز.
وأوضح يامبولسكي: “إذا اعتدنا على قبول إجابات الذكاء الاصطناعي دون تفسير، والتعامل معه بشكل أساسي كنظام أوراكل، فلن نكون قادرين على معرفة ما إذا كان يبدأ في تقديم إجابات خاطئة أو تلاعبية”.
وأشار أيضًا إلى أنه مع زيادة قدرة الذكاء الاصطناعي، تزداد استقلاليته أيضًا ولكن تقل سيطرتنا عليه – وزيادة الاستقلالية مرادفة لانخفاض الأمان.
وحذر يامبولسكي من أن “الإنسانية تواجه خيارا، هل نصبح مثل الأطفال الذين يتم الاعتناء بهم ولكننا لا نسيطر عليهم، أم نرفض أن يكون لدينا وصي مفيد ولكننا نظل مسؤولين وأحرارًا”.
وقد شارك الخبير اقتراحات حول كيفية التخفيف من المخاطر، مثل تصميم آلة تتبع الأوامر البشرية بدقة، لكن يامبولسكي أشار إلى احتمالية تضارب الأوامر أو سوء التفسير أو الاستخدام الضار.
وأوضح: “يمكن أن يؤدي البشر المسيطرون إلى أوامر متناقضة أو ضارة بشكل واضح، في حين أن الذكاء الاصطناعي المسيطر يعني أن البشر ليسوا كذلك”.
“يبحث معظم الباحثين في مجال سلامة الذكاء الاصطناعي عن طريقة لمواءمة الذكاء الفائق المستقبلي مع قيم الإنسانية.
“سوف يكون الذكاء الاصطناعي المتوافق مع القيمة متحيزًا بحكم التعريف، والتحيز لصالح الإنسان، سواء كان جيدًا أو سيئًا، لا يزال تحيزًا.
“إن مفارقة الذكاء الاصطناعي المتوافق مع القيمة هي أن الشخص الذي يأمر صراحةً نظام الذكاء الاصطناعي للقيام بشيء ما قد يحصل على “لا” بينما يحاول النظام القيام بما يريده الشخص بالفعل.”
“الإنسانية إما محمية أو محترمة، ولكن ليس كليهما.”
اترك ردك