هاريس للقاء الرؤساء التنفيذيين حول مخاطر الذكاء الاصطناعي

واشنطن (ا ف ب) – نائب الرئيس كامالا هاريس سيجتمع يوم الخميس مع الرؤساء التنفيذيين لأربع شركات كبرى تعمل على تطوير الذكاء الاصطناعي بينما تطرح إدارة بايدن مجموعة من المبادرات التي تهدف إلى ضمان أن التكنولوجيا سريعة التطور تعمل على تحسين الحياة دون تعريض حقوق الناس وسلامتهم للخطر.

تخطط الإدارة الديمقراطية للإعلان عن استثمار بقيمة 140 مليون دولار لإنشاء سبعة معاهد بحثية جديدة للذكاء الاصطناعي ، حسبما قال مسؤولون في الإدارة للصحفيين في معاينة هذا الجهد.

بالإضافة إلى ذلك ، من المتوقع أن يصدر مكتب الإدارة والميزانية بالبيت الأبيض إرشادات في الأشهر القليلة المقبلة حول كيفية استخدام الوكالات الفيدرالية لأدوات الذكاء الاصطناعي. سيكون هناك أيضًا التزام مستقل من قبل كبار مطوري الذكاء الاصطناعي للمشاركة في تقييم عام لأنظمتهم في أغسطس في مؤتمر القراصنة في لاس فيغاس DEF CON.

يخطط هاريس ومسؤولو الإدارة يوم الخميس لمناقشة المخاطر التي يرونها في التطوير الحالي للذكاء الاصطناعي مع الرؤساء التنفيذيين لشركة Alphabet و Anthropic و Microsoft و OpenAI. رسالة القادة الحكوميين للشركات هي أن لديهم دورًا يلعبونه في الحد من المخاطر وأنه يمكنهم العمل جنبًا إلى جنب مع الحكومة.

الرئيس جو بايدن أشار الشهر الماضي إلى أن الذكاء الاصطناعي يمكن أن يساعد في معالجة الأمراض وتغير المناخ ، ولكنه قد يضر أيضًا بالأمن القومي ويعطل الاقتصاد بطرق مزعزعة للاستقرار.

أدى إصدار روبوت الدردشة ChatGPT هذا العام إلى زيادة الجدل حول الذكاء الاصطناعي ودور الحكومة في التكنولوجيا. نظرًا لأن الذكاء الاصطناعي يمكن أن يولد كتابة شبيهة بالبشر وصورًا مزيفة ، فهناك مخاوف أخلاقية ومجتمعية.

كانت شركة OpenAI ، التي طورت ChatGPT ، سرية بشأن البيانات التي تم تدريب أنظمة الذكاء الاصطناعي عليها. وهذا يجعل من الصعب على من هم خارج الشركة فهم سبب تقديم ChatGPT إجابات متحيزة أو خاطئة للطلبات أو معالجة المخاوف بشأن ما إذا كانت تسرق من أعمال محمية بحقوق الطبع والنشر.

قالت مارجريت ميتشل ، كبيرة علماء الأخلاقيات في شركة Hugging Face الناشئة لمنظمة العفو الدولية ، إن الشركات التي تشعر بالقلق من تحمل المسؤولية عن شيء ما في بيانات التدريب الخاصة بها قد لا يكون لديها أيضًا حوافز لتتبعه بشكل صحيح.

قال ميتشل في مقابلة يوم الثلاثاء: “أعتقد أنه قد لا يكون من الممكن لـ OpenAI أن تفصل فعليًا جميع بيانات التدريب الخاصة بها على مستوى من التفاصيل سيكون مفيدًا حقًا فيما يتعلق ببعض المخاوف المتعلقة بالموافقة والخصوصية والترخيص”. “من خلال ما أعرفه عن ثقافة التكنولوجيا ، هذا لم يتم القيام به.”

من الناحية النظرية ، على الأقل ، قد يجبر نوع من قانون الإفصاح مقدمي خدمات الذكاء الاصطناعي على فتح أنظمتهم لمزيد من التدقيق من قبل طرف ثالث. ولكن مع بناء أنظمة الذكاء الاصطناعي فوق النماذج السابقة ، فلن يكون من السهل على الشركات توفير قدر أكبر من الشفافية بعد وقوعها.

قال ميتشل: “أعتقد أن الأمر متروك للحكومات لتقرر ما إذا كان هذا يعني أنه يتعين عليك التخلص من كل العمل الذي قمت به أم لا”. “بالطبع ، أتخيل نوعًا ما أنه في الولايات المتحدة على الأقل ، سوف تميل القرارات نحو الشركات وستكون داعمة لحقيقة أنه تم بالفعل. سيكون لها مثل هذه التداعيات الهائلة إذا كان على كل هذه الشركات أن تقوم بشكل أساسي بإهمال كل هذا العمل والبدء من جديد “.

___

تابع تغطية أسوشييتد برس للذكاء الاصطناعي على https://apnews.com/hub/artustry-intelligence.