(رويترز) – قال جريج بروكمان رئيس شركة أوبن إيه آي ، مبتكر ChatGPT ، يوم الإثنين ، إنه يختبر كيفية جمع مدخلات واسعة بشأن القرارات التي تؤثر على ذكاءه الاصطناعي.
في AI Forward ، وهو حدث في سان فرانسيسكو استضافته Goldman Sachs Group Inc (GS.N) و SV Angel ، ناقش Brockman الخطوط العريضة لكيفية سعي صانع روبوت الدردشة ذي الشعبية الكبيرة إلى تنظيم الذكاء الاصطناعي عالميًا.
أحد الإعلانات التي قام بمعاينتها يشبه نموذج ويكيبيديا ، والذي قال إنه يتطلب من الأشخاص ذوي وجهات النظر المتنوعة أن يتحدوا ويتفقوا على مدخلات الموسوعة.
قال عن سياسة الذكاء الاصطناعي: “نحن لا نجلس في وادي السيليكون فقط ونفكر في أنه يمكننا كتابة هذه القواعد للجميع”. “لقد بدأنا في التفكير في صنع القرار الديمقراطي”.
هناك فكرة أخرى ناقشها بروكمان ، والتي تناولتها شركة OpenAI في منشور على مدونة يوم الاثنين ، وهي أن الحكومات في جميع أنحاء العالم يجب أن تنسق لضمان تطوير الذكاء الاصطناعي بأمان.
منذ إطلاق ChatGPT في 30 نوفمبر ، استحوذت تقنية الذكاء الاصطناعي التوليدية التي يمكن أن تدور نثرًا موثوقًا بشكل غير مسبوق من الرسائل النصية على الجمهور ، مما يجعل البرنامج التطبيق الأسرع نموًا على الإطلاق. أصبح الذكاء الاصطناعي أيضًا محط اهتمام بشأن قدرته على إنشاء صور مزيفة ومعلومات خاطئة أخرى.
في تقييم المسار إلى الأمام للذكاء الاصطناعي ، نظر بروكمان إلى ويكيبيديا وكذلك في أماكن أخرى. قال هو و OpenAI إن هيئة مثل الوكالة الدولية للطاقة الذرية يمكن أن تفرض قيودًا على النشر ، وتدقق في الامتثال لمعايير السلامة وتتبع استخدام قوة الحوسبة.
اقتراح آخر كان اتفاقية عالمية للحد من النمو السنوي لقدرات الذكاء الاصطناعي الحدودية ، أو مشروع عالمي مشترك يمكن للحكومات الكبرى المشاركة فيه.
اقترح سام ألتمان ، الرئيس التنفيذي لشركة OpenAI ، أفكارًا مختلفة على المشرعين الأمريكيين الأسبوع الماضي لوضع حواجز للذكاء الاصطناعي ، من بينها طلب تراخيص لتطوير نماذج الذكاء الاصطناعي الأكثر تطوراً وإنشاء نظام حوكمة ذي صلة. يزور صناع السياسة الأوروبيين هذا الأسبوع.
معاييرنا: مبادئ الثقة في Thomson Reuters.
اترك ردك