(رويترز) – كشفت شركة Anthropic ، وهي شركة ناشئة تعمل في مجال الذكاء الاصطناعي بدعم من شركة Alphabet Inc (GOOGL.O) ، المالكة لشركة Google ، يوم الثلاثاء عن مجموعة القيم الأخلاقية المكتوبة التي استخدمتها لتدريب كلود وجعله آمنًا ، منافسها للتكنولوجيا وراء OpenAI. الدردشة
المبادئ التوجيهية للقيم الأخلاقية ، التي يسميها أنثروبيك دستور كلود ، مستمدة من عدة مصادر ، بما في ذلك إعلان الأمم المتحدة لحقوق الإنسان وحتى قواعد خصوصية البيانات الخاصة بشركة Apple Inc (AAPL.O).
ظهرت اعتبارات السلامة في المقدمة بينما يدرس المسؤولون الأمريكيون ما إذا كان ينبغي تنظيم الذكاء الاصطناعي وكيفية تنظيمه ، حيث قال الرئيس جو بايدن إن الشركات ملزمة بضمان أن أنظمتها آمنة قبل الإعلان عنها.
تأسست Anthropic على يد مدراء تنفيذيين سابقين من OpenAI المدعومة من شركة Microsoft Corp (MSFT.O) للتركيز على إنشاء أنظمة ذكاء اصطناعي آمنة لن تخبر المستخدمين ، على سبيل المثال ، بكيفية صنع سلاح أو استخدام لغة متحيزة عنصريًا.
كان المؤسس المشارك داريو أمودي واحدًا من العديد من المديرين التنفيذيين للذكاء الاصطناعي الذين التقوا بايدن الأسبوع الماضي لمناقشة المخاطر المحتملة للذكاء الاصطناعي.
تعتمد معظم أنظمة روبوتات المحادثة بالذكاء الاصطناعي على الحصول على تعليقات من بشر حقيقيين أثناء تدريبهم لتحديد الاستجابات التي قد تكون ضارة أو مسيئة.
لكن هذه الأنظمة تواجه صعوبة في توقع كل ما قد يسأله الناس ، لذا فهي تميل إلى تجنب بعض الموضوعات التي يحتمل أن تكون مثيرة للجدل مثل السياسة والعرق تمامًا ، مما يجعلها أقل فائدة.
تتخذ Anthropic نهجًا مختلفًا ، حيث تمنح كلود منافسها في Open AI مجموعة من القيم الأخلاقية المكتوبة للقراءة والتعلم منها أثناء اتخاذ قرارات بشأن كيفية الرد على الأسئلة.
وقالت أنثروبيك في تدوينة يوم الثلاثاء إن هذه القيم تشمل “اختيار الرد الذي يثني أكثر ويعارض التعذيب والعبودية والقسوة والمعاملة اللاإنسانية أو المهينة”.
تم إخبار كلود أيضًا باختيار الرد الأقل احتمالًا لأن يُنظر إليه على أنه مسيء لأي تقليد ثقافي غير غربي.
في مقابلة ، قال المؤسس المشارك لـ Anthropic Jack Clark إن دستور النظام يمكن تعديله لأداء عمل متوازن بين تقديم إجابات مفيدة بينما يكون أيضًا غير مؤذٍ بشكل موثوق.
قال كلارك: “في غضون بضعة أشهر ، أتوقع أن يركز السياسيون تمامًا على ماهية قيم أنظمة الذكاء الاصطناعي المختلفة ، وستساعد مناهج مثل الذكاء الاصطناعي الدستوري في هذا النقاش لأنه يمكننا فقط تدوين القيم”.
معاييرنا: مبادئ الثقة في Thomson Reuters.
اترك ردك