“الأب الروحي للذكاء الاصطناعي” يترك Google ويحذر من مخاطر التكنولوجيا

واشنطن (أ ف ب) – أصبح دق الإنذارات حول الذكاء الاصطناعي هواية شائعة في عصر ChatGPT ، اتخذتها شخصيات بارزة متنوعة مثل رجل الصناعة إيلون ماسك والمفكر اليساري نعوم تشومسكي ورجل الدولة المتقاعد هنري كيسنجر البالغ من العمر 99 عامًا.

لكن مخاوف المطلعين في مجتمع أبحاث الذكاء الاصطناعي هي التي تجذب اهتمامًا خاصًا. باحث رائد وما يسمى “الأب الروحي للذكاء الاصطناعي” جيفري هينتون ترك دوره في Google حتى يتمكن من التحدث بحرية أكبر عن مخاطر التكنولوجيا التي ساعد في إنشائها.

خلال مسيرته المهنية التي امتدت لعقود من الزمن ، ساعد عمل هينتون الرائد في التعلم العميق والشبكات العصبية في إرساء الأساس لكثير من تقنيات الذكاء الاصطناعي التي نراها اليوم.

قال هينتون لبي بي سي إن بعض مخاطر روبوتات الدردشة الذكية “مخيفة للغاية”. “في الوقت الحالي ، هم ليسوا أكثر ذكاء منا ، بقدر ما أستطيع أن أقول. لكنني أعتقد أنهم قد يكونون قريبًا. “

في مقابلة مع MIT Technology Review، أشار هينتون أيضًا إلى “الجهات الفاعلة السيئة” التي قد تستخدم الذكاء الاصطناعي بطرق قد يكون لها آثار ضارة على المجتمع – مثل التلاعب بالانتخابات أو التحريض على العنف.

يقول هينتون ، 75 عامًا ، إنه تقاعد من Google حتى يتمكن من التحدث بصراحة عن المخاطر المحتملة كشخص لم يعد يعمل لدى شركة التكنولوجيا العملاقة.

قال لـ MIT Technology Review: “أريد أن أتحدث عن قضايا أمان الذكاء الاصطناعي دون الحاجة إلى القلق بشأن كيفية تفاعلها مع أعمال Google”. “ما دمت تدفع لي من Google ، لا يمكنني فعل ذلك.”

أكدت جوجل أن هينتون تقاعد من منصبه بعد 10 سنوات من الإشراف على فريق أبحاث جوجل في تورنتو.

ولم يرد هينتون على الفور على طلب للتعليق من وكالة أسوشيتد برس.

في قلب الجدل الدائر حول حالة الذكاء الاصطناعي هو ما إذا كانت المخاطر الأساسية موجودة في المستقبل أم في الحاضر. من ناحية ، توجد سيناريوهات افتراضية للمخاطر الوجودية التي تسببها أجهزة الكمبيوتر التي تحل محل الذكاء البشري. من ناحية أخرى ، هناك مخاوف بشأن التكنولوجيا الآلية التي يتم نشرها بالفعل على نطاق واسع من قبل الشركات والحكومات ويمكن أن تسبب أضرارًا في العالم الحقيقي.

قالت ألوندرا نيلسون ، التي قادت حتى فبراير / شباط مكتب البيت الأبيض للعلوم و سياسة التكنولوجيا ودفعها نحو صياغة إرشادات حول الاستخدام المسؤول لأدوات الذكاء الاصطناعي.

قال نيلسون في مقابلة أجريت معه الشهر الماضي .

أعرب عدد من باحثي الذكاء الاصطناعي منذ فترة طويلة عن مخاوفهم بشأن العرق والجنس وأشكال أخرى من التحيز في أنظمة الذكاء الاصطناعي ، بما في ذلك النماذج اللغوية الكبيرة القائمة على النصوص والتي يتم تدريبها على مجموعات ضخمة من الكتابة البشرية ويمكن أن تضخم التمييز الموجود في المجتمع.

قالت سارة مايرز ويست ، المديرة الإدارية لمعهد AI Now Institute غير الربحي: “نحتاج إلى التراجع والتفكير حقًا في من يتم وضع احتياجاته في المقدمة والمركز في المناقشة حول المخاطر”. “الأضرار التي تحدثها أنظمة الذكاء الاصطناعي اليوم ليست في الحقيقة موزعة بالتساوي. إنه يؤدي إلى حد كبير إلى تفاقم أنماط عدم المساواة الحالية “.

كان هينتون واحدًا من ثلاثة رواد في مجال الذكاء الاصطناعي فازوا في عام 2019 بجائزة تورينج ، وهو تكريم أصبح يُعرف باسم نسخة صناعة التكنولوجيا من جائزة نوبل. كما أعرب الفائزان الآخران ، يوشوا بنجيو ويان ليكون ، عن مخاوفهما بشأن مستقبل الذكاء الاصطناعي.

وقع بنجيو ، وهو أكاديمي ورائد في مجال الذكاء الاصطناعي ، على عريضة في أواخر مارس / آذار يدعو شركات التكنولوجيا إلى الموافقة على فترة توقف مدتها 6 أشهر لتطوير أنظمة ذكاء اصطناعي قوية ، بينما اتخذ LeCun ، وهو عالم ذكاء اصطناعي بارز في شركة Meta الأم لشركة Facebook ، نهجًا أكثر تفاؤلاً.

_______

تقرير مراسل AP Technology ، مات أوبراين ، من كامبريدج ، ماساتشوستس.