يقول رئيس مايكروسوفت أنه لا توجد فرصة للذكاء الاصطناعي الفائق الذكاء قريبًا

نائب رئيس مجلس إدارة Microsoft براد سميث يلقي نظرة خلال القمة الخامسة لـ “Christchurch Call” في قصر الإليزيه الرئاسي في باريس، فرنسا في 10 نوفمبر 2023. LUDOVIC MARIN / Pool عبر REUTERS / File Photo يحصل على حقوق الترخيص

لندن 30 نوفمبر تشرين الثاني (رويترز) – قال رئيس شركة مايكروسوفت العملاقة للتكنولوجيا (MSFT.O) إنه لا توجد فرصة لإنشاء ذكاء اصطناعي فائق الذكاء خلال الاثني عشر شهرا المقبلة، وحذر من أن التكنولوجيا قد تستغرق عقودا من الزمن.

تمت إزالة سام ألتمان، أحد مؤسسي OpenAI، في وقت سابق من هذا الشهر من منصبه كرئيس تنفيذي من قبل مجلس إدارة الشركة، ولكن تم إعادته بسرعة بعد عطلة نهاية أسبوع من الاحتجاج من الموظفين والمساهمين.

ذكرت رويترز الأسبوع الماضي حصريًا أن الإطاحة جاءت بعد وقت قصير من اتصال الباحثين بمجلس الإدارة، محذرين من اكتشاف خطير يخشون أنه قد يكون له عواقب غير مقصودة.

وقال أحد المصادر لرويترز إن المشروع الداخلي المسمى Q* (يُنطق Q-Star) يمكن أن يمثل إنجازًا كبيرًا في بحث الشركة الناشئة عما يعرف بالذكاء الاصطناعي العام (AGI). يُعرّف OpenAI الذكاء الاصطناعي العام بأنه أنظمة مستقلة تتفوق على البشر في معظم المهام ذات القيمة الاقتصادية.

ومع ذلك، رفض رئيس مايكروسوفت براد سميث، في حديثه للصحفيين في بريطانيا يوم الخميس، مزاعم حدوث اختراق خطير.

“ليس هناك أي احتمال على الإطلاق أنك سترى ما يسمى بالذكاء الاصطناعي العام، حيث تكون أجهزة الكمبيوتر أقوى من البشر، في الأشهر الـ 12 المقبلة. سيستغرق الأمر سنوات، إن لم يكن عدة عقود، لكنني ما زلت أعتقد أن الوقت قد حان وقال “التركيز الآن على السلامة”.

وقالت مصادر لرويترز إن التحذير الموجه إلى مجلس إدارة OpenAI كان أحد العوامل ضمن قائمة أطول من المظالم التي أدت إلى إقالة ألتمان، بالإضافة إلى المخاوف بشأن تسويق التقدم قبل تقييم مخاطره.

وردا على سؤال عما إذا كان مثل هذا الاكتشاف قد ساهم في إقالة ألتمان، قال سميث: “لا أعتقد أن هذا هو الحال على الإطلاق. أعتقد أنه من الواضح أنه كان هناك اختلاف بين مجلس الإدارة والآخرين، لكن الأمر لم يكن يتعلق بشكل أساسي بمخاوف من هذا القبيل”. .

“ما نحتاجه حقًا هو مكابح الأمان. وأضاف سميث: “تمامًا مثلما يكون لديك فواصل أمان في المصعد، أو قاطع دائرة للكهرباء، أو فرامل طوارئ للحافلة، يجب أن تكون هناك فواصل أمان في أنظمة الذكاء الاصطناعي التي تتحكم في البنية التحتية الحيوية، بحيث تظل دائمًا تحت السيطرة البشرية”. .

تقرير مارتن كولتر. تحرير شارون سينجلتون ومارك بورتر

معاييرنا: مبادئ الثقة في طومسون رويترز.

الحصول على حقوق الترخيص، يفتح علامة تبويب جديدة