25 أبريل (رويترز) – أصدرت شركة Nvidia Corp (NVDA.O) ، وهي مورد رئيسي للرقائق وأنظمة الحوسبة للذكاء الاصطناعي ، يوم الثلاثاء مجموعة من الأدوات البرمجية التي تهدف إلى مساعدة روبوتات المحادثة على مشاهدة لغتها.
ساعدت رقائق Nvidia شركات مثل Microsoft Corp (MSFT.O) على إضافة ميزات دردشة شبيهة بالبشر إلى محركات البحث مثل Bing. لكن لا يزال من الممكن أن تكون روبوتات المحادثة غير متوقعة وتقول أشياء يرغب منشئوها في ألا يفعلوها.
قامت Microsoft في فبراير بتحديد المستخدمين بخمسة أسئلة لكل جلسة باستخدام محرك بحث Bing الخاص بها بعد أن ذكرت صحيفة New York Times أن النظام قدم ردودًا مقلقة أثناء المحادثات الطويلة.
تم تصميم أدوات برامج Nvidia ، المتوفرة مجانًا ، لمساعدة الشركات على الحماية من الاستجابات غير المرغوب فيها من روبوتات المحادثة. بعض هذه الاستخدامات واضحة ومباشرة – قد لا يرغب صانع روبوت المحادثة لخدمة العملاء في أن يذكر النظام منتجات من منافسيه.
لكن أدوات Nvidia مصممة أيضًا لمساعدة منشئي أنظمة الذكاء الاصطناعي على وضع تدابير أمان مهمة ، مثل ضمان عدم استجابة روبوتات المحادثة لمعلومات يحتمل أن تكون خطرة مثل كيفية إنشاء أسلحة أو إرسال المستخدمين إلى روابط غير معروفة قد تحتوي على فيروسات الكمبيوتر.
دعا المشرعون الأمريكيون إلى وضع لوائح حول أنظمة الذكاء الاصطناعي مع ازدياد شعبية تطبيقات مثل ChatGPT. توجد القليل من القواعد القانونية أو معايير الصناعة حول كيفية جعل أنظمة الذكاء الاصطناعي آمنة.
قال جوناثان كوهين ، نائب رئيس الأبحاث التطبيقية في Nvidia ، إن الشركة تهدف إلى توفير أدوات لوضع تلك المعايير في كود برمجي إذا ومتى وصلت ، سواء من خلال توافق الصناعة أو التنظيم.
وقال “أعتقد أنه من الصعب التحدث عن المعايير إذا لم يكن لديك طريقة لتطبيقها”. “إذا ظهرت المعايير ، فسيكون هناك مكان جيد لوضعها”.
معاييرنا: مبادئ الثقة في Thomson Reuters.
اترك ردك