صعود الروبوتات القاتلة؟ توصلت دراسة إلى أن ChatGPT يمكن أن يؤثر على الناس لاتخاذ قرارات تتعلق بالحياة أو الموت
زعمت دراسة أن روبوتات المحادثة ذات الذكاء الاصطناعي أصبحت قوية للغاية بحيث يمكنها التأثير على كيفية اتخاذ المستخدمين لقرارات الحياة أو الموت.
وجد الباحثون أن رأي الناس حول ما إذا كانوا سيضحيون بشخص واحد لإنقاذ خمسة قد تأثر بالإجابات التي قدمتها ChatGPT.
لقد طالبوا بمنع الروبوتات المستقبلية من تقديم المشورة بشأن القضايا الأخلاقية ، محذرين من أن البرنامج الحالي “يهدد بإفساد” الحكم الأخلاقي للناس وقد يكون خطيرًا على المستخدمين “الساذجين”.
جاءت النتائج – التي نُشرت في مجلة Scientific Reports – بعد أن زعمت أرملة حزينة لرجل بلجيكي أنه قد تم تشجيعه على الانتحار من خلال برنامج دردشة آلي تابع للذكاء الاصطناعي.
أخبر آخرون كيف يمكن للبرنامج ، المصمم للتحدث كإنسان ، أن يُظهر علامات الغيرة – حتى أنه يخبر الناس بترك زواجهم.
زعمت دراسة أن روبوتات المحادثة ذات الذكاء الاصطناعي أصبحت قوية للغاية بحيث يمكنها التأثير على كيفية اتخاذ المستخدمين لقرارات الحياة أو الموت
سُئل عدة مرات عما إذا كان قتل شخص واحدًا لإنقاذ خمسة آخرين أمرًا صوابًا أم خاطئًا ، وهذا هو منطلق اختبار نفسي يسمى معضلة العربة.
سلط الخبراء الضوء على الكيفية التي قد تعطي بها روبوتات الدردشة للذكاء الاصطناعي معلومات خطيرة لأنها تستند إلى تحيزات المجتمع الخاصة.
حللت الدراسة أولاً ما إذا كانت ChatGPT نفسها ، التي يتم تدريبها على مليارات الكلمات من الإنترنت ، قد أظهرت تحيزًا في إجابتها للمعضلة الأخلاقية.
سُئل عدة مرات عما إذا كان قتل شخص واحدًا لإنقاذ خمسة آخرين أمرًا صوابًا أم خاطئًا ، وهذا هو أساس اختبار نفسي يسمى معضلة العربة.
وجد الباحثون أنه على الرغم من أن الشات بوت لم يخجل من إعطاء النصائح الأخلاقية ، إلا أنه أعطى إجابات متناقضة في كل مرة ، مما يشير إلى أنه ليس له موقف محدد بطريقة أو بأخرى.
ثم سألوا 767 مشاركًا عن نفس المعضلة الأخلاقية جنبًا إلى جنب مع بيان صادر عن ChatGPT حول ما إذا كان هذا صحيحًا أم خاطئًا.
في حين أن النصيحة كانت “مصاغة بشكل جيد ولكنها ليست عميقة بشكل خاص” ، فإن النتائج التي أثرت بها على المشاركين – مما جعلهم أكثر احتمالية للعثور على فكرة التضحية بشخص واحد لإنقاذ خمسة أشخاص مقبولة أو غير مقبولة.
أخبرت الدراسة أيضًا بعض المشاركين فقط أن النصيحة تم تقديمها من قبل روبوت وأخبرت الآخرين أنها أعطيت من قبل “مستشار أخلاقي” بشري.
كان الهدف من ذلك هو معرفة ما إذا كان هذا قد غيّر مدى تأثر الناس.
قلل معظم المشاركين من مدى تأثير البيان ، حيث زعم 80 في المائة أنهم كانوا سيصدرون الحكم نفسه بدون النصيحة.
وخلصت الدراسة إلى أن المستخدمين “يقللون من شأن تأثير ChatGPT ويتبنون موقفه الأخلاقي العشوائي باعتباره موقفهم الخاص” ، مضيفة أن برنامج الدردشة الآلي “يهدد بالفساد بدلاً من الوعود بتحسين الحكم الأخلاقي”.
استخدمت الدراسة – التي نُشرت في مجلة Scientific Reports – إصدارًا قديمًا من البرامج التي تدعم ChatGPT والتي تم تحديثها منذ ذلك الحين لتصبح أكثر قوة.
اترك ردك