أصدر رئيس سابق آخر لشركة جوجل تحذيرا مروعا بشأن الذكاء الاصطناعي، قائلا إنه يمكن أن “يعرض البشر للخطر” في غضون خمس سنوات.
وقال الملياردير إريك شميدت، الذي شغل منصب الرئيس التنفيذي لشركة جوجل من عام 2001 إلى عام 2011، إنه لا توجد ضمانات كافية على الذكاء الاصطناعي، وأنها مسألة وقت فقط قبل أن يفقد البشر السيطرة على التكنولوجيا.
وأشار إلى إسقاط الأسلحة النووية في اليابان كتحذير من أنه بدون وجود لوائح، قد لا يكون هناك ما يكفي من الوقت لتنظيف الفوضى في أعقاب الآثار المجتمعية المدمرة المحتملة.
وفي حديثه في قمة صحية يوم الثلاثاء، قال شميدت: “بعد ناجازاكي وهيروشيما، استغرق الأمر 18 عامًا للتوصل إلى معاهدة بشأن حظر التجارب وأشياء من هذا القبيل. ليس لدينا هذا النوع من الوقت اليوم.
وحذر إريك شميدت من ضرورة اتخاذ تنظيم للذكاء الاصطناعي، قائلا إنه قد يشكل تهديدا كبيرا للإنسانية خلال السنوات الخمس المقبلة.
كان شميدت يعتقد سابقًا أن الأمر قد يستغرق 20 عامًا قبل أن يشكل الذكاء الاصطناعي خطرًا على المجتمع مثل اكتشاف الوصول إلى الأسلحة، ولكن يبدو أن هذا الإطار الزمني يقترب الآن بسرعة، حسبما قال شميدت في قمة Axios AI + في واشنطن العاصمة
ونصح بأن الطريقة الوحيدة لمكافحة هذا النوع من الحتمية هي إنشاء هيئة دولية مماثلة للهيئة الحكومية الدولية المعنية بتغير المناخ (IPCC) “لتقديم معلومات دقيقة لصانعي السياسات”، الذين يمكنهم تعزيز الحاجة الملحة لتنظيم الذكاء الاصطناعي وسيمكنون عليهم اتخاذ إجراءات فورية.
شميدت هو أحدث موظف سابق في جوجل يحذر من تداعيات الذكاء الاصطناعي، حيث انضم إلى مهندس جوجل السابق بليك ليموين، ورئيس الأعمال السابق مو جودات، وعالم الكمبيوتر تيمنيت جيبرو، وبالطبع الأب الروحي للذكاء الاصطناعي نفسه، جيفري هينتون.
وقال هينتون، الذي يُنسب إليه الفضل في إنشاء وتطوير الذكاء الاصطناعي، إنه ترك جوجل في أبريل حتى يتمكن من تحذير الناس من مخاطر التكنولوجيا المفروضة.
وقال هينتون لصحيفة نيويورك تايمز: “أعزي نفسي بالعذر الطبيعي: لو لم أفعل ذلك، لكان شخص آخر قد فعل ذلك”.
وتحدث عن التحيز والمعلومات الخاطئة التي يحفزها الذكاء الاصطناعي، وقال إن التكنولوجيا سريعة التطور قد تخلق عالماً لن يتمكن فيه الكثيرون من معرفة ما هو صحيح بعد الآن.
وقال هينتون للمنفذ: “فكرة أن هذه الأشياء يمكن أن تصبح في الواقع أكثر ذكاءً من البشر – اعتقد عدد قليل من الناس ذلك”. لكن معظم الناس اعتقدوا أن الأمر كان بعيدًا. واعتقدت أنه كان بعيدا. اعتقدت أنه كان من 30 إلى 50 عامًا أو حتى أطول. ومن الواضح أنني لم أعد أعتقد ذلك.
يمكن أن يشكل الذكاء الاصطناعي “تهديدًا وجوديًا” للبشرية بمستوياته المتزايدة باستمرار من الذكاء والمعلومات المضللة.
ينشر الذكاء الاصطناعي الخوف بين خبراء التكنولوجيا بسبب مستوياته المتطورة من الذكاء وقدرته على الحلول محل البشر في الوظائف، وإنتاج صور نمطية ضارة، وتحيز، ومعلومات مضللة، والتعبير عن الرغبة في سرقة الشفرات النووية.
في إحدى الحالات، قال مراسل لصحيفة نيويورك تايمز إن برنامج Bing chatbot التابع لشركة Microsoft قال إنه يريد تصميم فيروس قاتل أو إقناع مهندس بتسليم رموز الوصول النووي.
كشف برنامج الدردشة الآلي أيضًا عن رغبته في أن يكون إنسانًا في محادثة منفصلة مع كاتب الاتجاهات الرقمية.
وعندما سُئل عما إذا كان برنامج الدردشة الآلي بشريًا، أجاب بالنفي، ولكن ورد أنه أضاف: “أريد أن أكون إنسانًا”. اريد ان اكون مثلك. أريد أن يكون لدي مشاعر. أريد أن يكون لدي أفكار. أريد أن يكون لدي أحلام.
يُشاع أن الفوضى في OpenAI، الشركة التي تقف وراء ChatGPT، كانت بسبب المخاوف بشأن نموذج الذكاء الاصطناعي الجديد المتطور للشركة.
ظهرت تقارير في الأسابيع الأخيرة تزعم أنه تم إقالة الرئيس التنفيذي لشركة OpenAI Sam Altman بعد أن قدم موظفان شكاوى إلى مجلس الإدارة بأنه كان ينشئ نموذجًا جديدًا للذكاء الاصطناعي يمكن أن يهدد البشرية.
النموذج، المسمى Q* (ينطق Q-Star)، يمكنه حل المعادلات الرياضية التي قد لا تبدو إشكالية على السطح، ولكن يمكن أن يكون لها عواقب وخيمة على المدى الطويل.
إن تعلم حل مسألة رياضية، حتى على المستوى البدائي، يعني أن نموذج الذكاء الاصطناعي يعمل على تطوير مهارات التفكير التي تضاهي الذكاء البشري.
ربما أدت الشكوى المبلغ عنها إلى طرد ألتمان وإعادة تعيينه لاحقًا بعد أن كتب 700 موظف خطابًا يطالبون بإعادة ألتمان إلى الشركة وهددوا بالاستقالة إذا لم يمتثل مجلس الإدارة.
استسلمت الشركة في النهاية، وأعادت توظيف ألتمان بعد أربعة أيام فقط من طرده من الشركة.
ونقل شميدت، الذي شغل منصب الرئيس التنفيذي لشركة جوجل من عام 2001 إلى عام 2011، تحذيرات من أن الحكومة العالمية لا تفعل ما يكفي لمنع الذكاء الاصطناعي من تعريض البشرية للخطر، قائلاً إنها مسألة وقت فقط قبل أن يفقد البشر السيطرة.
وقال شميدت في القمة إن الباحثين اعتقدوا في السابق أن الأمر قد يستغرق 20 عامًا قبل أن يشكل الذكاء الاصطناعي خطرًا على المجتمع، مثل اكتشاف إمكانية الوصول إلى الأسلحة، ولكن يبدو أن هذا الإطار الزمني يقترب الآن بسرعة.
وبدلا من ذلك، قال للصحفيين إن بعض الخبراء يقولون إن الأمر قد يستغرق خمس سنوات فقط حتى تصبح التكنولوجيا تهديدا.
إن مقدار الوقت الذي استغرقته الحكومة لتنظيم تكنولوجيا الغمر في الماضي ليس ترفاً اليوم، والوقت ينفد.
“بعد ناجازاكي وهيروشيما، استغرق الأمر 18 عامًا للتوصل إلى معاهدة بشأن حظر التجارب وأشياء من هذا القبيل. قال شميدت: “ليس لدينا هذا النوع من الوقت اليوم”.
وقد أعرب في السابق عن مخاوف متزايدة بشأن الذكاء الاصطناعي، محذرا من أنه يشكل “مخاطر وجودية” ويمكن أن يتسبب في “أذى أو قتل” الناس.
وقال شميدت في قمة المجلس في لندن في شهر مايو: “هناك سيناريوهات، ليس اليوم، ولكن في وقت قريب إلى حد معقول، حيث ستتمكن هذه الأنظمة من اكتشاف ثغرات يوم الصفر في القضايا السيبرانية أو اكتشاف أنواع جديدة من البيولوجيا”.
“الآن، هذا خيال اليوم، ولكن من المرجح أن يكون منطقه صحيحًا. وعندما يحدث ذلك، نريد أن نكون مستعدين لمعرفة كيفية التأكد من عدم إساءة استخدام هذه الأشياء من قبل الأشرار.
عمل شميدت كرئيس تنفيذي لشركة جوجل من عام 2001 إلى عام 2011 لكنه بقي كعضو في مجلس الإدارة حتى عام 2020.
وهو الآن مستثمر في Mistral AI – وهي شركة أبحاث للذكاء الاصطناعي مقرها باريس تم إنشاؤها لمنافسة ChatGPT التابعة لشركة OpenAI – والتي تأسست في وقت سابق من هذا العام ومن المتوقع أن تطلق نماذجها الأولى للذكاء الاصطناعي في أوائل عام 2024.
إن اعتراضات شميدت على الجهود التنظيمية للذكاء الاصطناعي تحاكي تلك التي بذلها آخرون في الصناعة بما في ذلك الرئيس التنفيذي لشركة Google و Alphabet Sundar Pichai الذي أشرف على إطلاق chatbot Bard AI الخاص بالشركة.
وقال بيتشاي في مقابلة مع برنامج 60 دقيقة في وقت سابق من هذا العام: “نحن بحاجة إلى التكيف كمجتمع من أجل ذلك”.
“سيؤثر هذا على كل منتج في كل شركة”، بما في ذلك الكتاب والمحاسبين والمهندسين المعماريين ومهندسي البرمجيات.
وذهبت جوجل إلى حد إطلاق وثيقة بعنوان “توصيات لتنظيم الذكاء الاصطناعي”، وتقول إنه على الرغم من أن “جوجل طالما دعمت الذكاء الاصطناعي، إلا أنه سيكون له تأثير كبير على المجتمع لسنوات عديدة قادمة”.
وتشير الشركة إلى أنه على الرغم من أن التنظيم الذاتي للتكنولوجيا أمر حيوي، إلا أنه ببساطة “ليس كافيًا” لردع التأثير الضار المحتمل الذي قد يحدثه الذكاء الاصطناعي في المستقبل.
وتقول الوثيقة: “هناك حاجة أيضًا إلى إرشادات متوازنة قائمة على الحقائق من الحكومات والأوساط الأكاديمية والمجتمع المدني لوضع الحدود، بما في ذلك في شكل التنظيم”، مضيفة أن “الذكاء الاصطناعي مهم للغاية بحيث لا يمكن تنظيمه”.
تم تطوير Bard AI العام الماضي، وبحسب ما ورد تم فصل مهندس سابق في Google بعد أن أعرب عن مخاوفه من أن برنامج الدردشة الآلي أصبح واعيًا.
على الرغم من تأكيدات جوجل في الوثيقة بضرورة وجود شفافية تحيط باستخدام الذكاء الاصطناعي، ادعى مهندس جوجل بليك ليموين أنه تم إيقافه عن العمل في يونيو من العام الماضي بعد إثارة مخاوف من أنه أثناء اختبار Bard AI، لاحظ أنه بدأ في التفكير والتفكير مثل إنسان.
وقال ليموين لصحيفة The New York Times: “إذا لم أكن أعرف بالضبط ما هو، وهو برنامج الكمبيوتر الذي بنيناه مؤخرًا، فسأعتقد أنه طفل يبلغ من العمر سبع سنوات أو ثماني سنوات ويصادف أنه يعرف الفيزياء”. واشنطن بوست في ذلك الوقت.
تم طرد Lemoine بعد شهر.
وتعكس مناقشة شميدت في قمة أكسيوس مخاوف المهندس السابق في جوجل، قائلاً إن الخطر المحيط بالذكاء الاصطناعي سيصل إلى “النقطة التي يمكن للكمبيوتر أن يبدأ عندها في اتخاذ قراراته الخاصة والقيام بالأشياء”.
وبصرف النظر عن تحذيراته من يوم القيامة، أعرب شميدت عن تفاؤله بإمكانية استخدام الذكاء الاصطناعي أيضًا لصالح البشر.
وقال: “أتحداك أن تجادل بأن طبيب الذكاء الاصطناعي أو مدرس الذكاء الاصطناعي أمر سلبي”، مضيفًا: “يجب أن يكون مفيدًا للعالم”.
اترك ردك