حذر رئيس سابق آخر لشركة Google من مخاطر الذكاء الاصطناعي ، قائلاً إنه يمكن أن ينظر إلى البشرية على أنها “حثالة” وحتى الاستيلاء على طائرات بدون طيار عسكرية لإبادةنا.
قال مو جودت ، كبير مسؤولي الأعمال السابق في الجناح X للبحث والتطوير السري في Google ، إن التكنولوجيا لديها القدرة على “حب” الإنسانية أو “سحق” الإنسانية “مثل الذباب”.
إنه ثاني موظف في عملاق البحث يحذر من قوة الذكاء الاصطناعي في غضون عدة أسابيع بعد ذلك استقال جيفري هينتون “الأب الروحي للذكاء الاصطناعي” ، إصدار تحذيراته الرهيبة بشأن مستقبل الذكاء الاصطناعي لدينا.
في X من Google ، قال جودت إنه فكر في الذكاء الاصطناعي الذي ابتكروه على أنه “أطفال” ، لكنه الآن يشعر ببعض الأسف بشأن هذه الأبوة.
لقد عشت بين تلك الآلات. قال جودت لمقدم البث دان موراي سيرتر هذا الشهر: “ أعرف مدى ذكائهم. “أتمنى لو لم أبدأ بهم.”
يعتقد Mo Gawdat ، الرئيس التنفيذي السابق للأعمال في Google X ، وهو “رائد أعمال متسلسل” وموجه بدء التشغيل ، أن الإنسانية يجب أن تكون حذرة بشأن المعلومات التي نقوم بإدخالها في الذكاء الاصطناعي
يقول جودت سيناريو بائس مثل تأليف الفيلم أنا روبوت على الأرجح ، إذا استمر البشر في ملاحقة آلات القتل الآلية للحرب. لكنه يحذر من أن الجمهور معني جدًا بهذه السيناريوهات بحيث لا يركز على إصلاح الثقافة التي ستؤدي حتماً إلى ذلك.
يأمل جودت أن يظل الجمهور مركزًا على ما يمكن فعله لمنع مستقبل بائس لآلات القتل الاستبدادية الآن ، بينما لا يزال هناك وقت.
ويحذر من أن نماذج تعلم اللغة التي تدرب على الذكاء الاصطناعي اليوم تسمح للآلات فقط بالتعرف على الجنس البشري من الفوضى التي أحدثناها على الإنترنت. هناك ، من المرجح أن ترى الروبوتات أسوأ ما يمكن أن تقدمه البشرية.
قال جودت “المشكلة هي الانحياز للسلبية”. “أولئك الذين تعمدوا الشر كلهم في العناوين. إنهم أيضًا من يستثمرون المزيد من الوقت والجهد ليكونوا في السلطة.
أي ذكاء اصطناعي ذكي مدرب على ثقافة إثارة الجدل و’الطُعم الغاضب ‘للمحتوى عبر الإنترنت – الذي تولده الأخبار وتنشره وسائل التواصل الاجتماعي – سوف ينظر إلى جنسنا البشري باعتباره شرًا وتهديدًا.
“إلى أي مدى يرجح أن يعتقد الذكاء الاصطناعي أننا حثالة اليوم؟” قال جودت. ‘عالي جدا.’
كما أعرب هينتون ، “الأب الروحي للذكاء الاصطناعي” السابق لشركة Google ، عن قلقه بشأن احتمالية وجود ديناميكية سامة بين الذكاء الاصطناعي والأخبار.
في حديثه لصحيفة نيويورك تايمز حول استقالته هذا الشهر ، حذر من أنه في المستقبل القريب ، سوف يغمر الذكاء الاصطناعي الإنترنت بصور ومقاطع فيديو ونصوص مزيفة. قال هينتون إن المنتجات المقلدة ستكون معيارًا ، حيث لن يتمكن الشخص العادي من معرفة ما هو حقيقي بعد الآن.
بالنسبة لجودت ، الذي ألف كتابًا عن مستقبل الذكاء الاصطناعي عام 2021 ، مخيف ذكي، المخاوف الشائعة حول ChatGPT هي “ذريعة حمراء” وما زالت قوة روبوتات الدردشة التي تعمل بالذكاء الاصطناعي اليوم مبالغًا فيها إلى حد كبير من قبل صانعي السياسات العامة والحكومية.
قال جودت لسيرتر في مدونته الصوتية “سيكريت ليدرز” ، “الآن بعد أن أصبح ChatGPT علينا ، على الرغم من أن ChatGPT ليس هو المشكلة حقًا وبصدق ، فإن الجميع الآن يستيقظ ويقولون ،” الذعر! الذعر! دعونا نفعل شيئًا حيال ذلك “.
وقال إنه من خلال التركيز على سيناريوهات نهاية العالم البعيدة ، قد تفشل البشرية في معالجة القضايا التي يمكنها تغييرها الآن لضمان مستقبل أكثر تناغمًا في شراكتنا الحتمية مع الذكاء الاصطناعي الفائق الذكاء.
قال جودت: “ بين الآن والوقت ، يمكن للذكاء الاصطناعي أن يولد بالفعل قوته الحاسوبية الخاصة وأن يقوم بالتثبيتات بنفسه من خلال أذرع روبوتية وما إلى ذلك ، فليس لديه الوكالة للقيام بالسيناريوهات التي تتحدث عنها هنا. .
وأضاف: “الإنسانية هي ما سيقرر إنشاء مراكز بيانات أكبر وأفضل ، لتكريس المزيد من القوة لتلك الآلات ، ولإثارة الشغب والاحتجاج في الشوارع لفقدان وظائفهم ووصف الذكاء الاصطناعي بأنه” الشيطان “.
“إنها أفعال بشرية ، والإنسانية هي التي تشكل التهديد.”
أخبر جودت مستمعي شركة Secret Leaders أنه يجب على الناس التوقف عن القلق بشأن الاحتمالات البعيدة في عام 2037 أو 2040 عندما قد يقرر الذكاء الاصطناعي “سحق” الإنسانية مثل الذباب “.
لكنه يعتقد أن الذكاء الاصطناعي سيكون لديه قريبًا “الوكالة لصنع آلات القتل” ، ولكن فقط “لأن البشر يصنعونها”.
لذا ، نعم ، قد يستخدم الذكاء الاصطناعي ذلك لإملاء أجندة مثل الفيلم أنا روبوتقال جودت: “لكن هذا لا يزال بعيدًا بعض الشيء”.
ومع استمرار تقدم تقنية الذكاء الاصطناعي بسرعة كبيرة ، فإنه يحذر من أنه حتى آراء الخبراء الخاصة به يجب أن تؤخذ بعين الشك.
قال جودت: “أي بيان حول الذكاء الاصطناعي اليوم يركز على المستقبل هو خطأ”. ‘لماذا؟ لأن القرف قد أصاب المروحة بالفعل.
اترك ردك