يتهم ChatGPT أستاذ القانون زوراً بارتكاب هجوم جنسي ضد الطلاب أثناء رحلة إلى ألاسكا لم تحدث أبدًا – في حالة مروعة تثير مخاوف بشأن تشويه سمعة الناس بالذكاء الاصطناعي

اتُهم أستاذ القانون زوراً بالتحرش الجنسي بطالب في معلومات مضللة مدمرة للسمعة شاركها موقع ChatGPT ، حسبما زُعم.

أثار محامي الدفاع الجنائي الأمريكي ، جوناثان تورلي ، مخاوف بشأن مخاطر الذكاء الاصطناعي (AI) بعد اتهامه خطأ بسلوك جنسي غير مرغوب فيه في رحلة إلى ألاسكا لم يسبق لها قط.

للقفز إلى هذا الاستنتاج ، زُعم أن ChatGPT استند إلى مقال مقتبس من واشنطن بوست لم يُكتب قط ، نقلاً عن بيان لم تصدره الصحيفة أبدًا.

يعتقد روبوت الدردشة أيضًا أن “الحادث” وقع أثناء عمل الأستاذ في كلية لم يعمل بها مطلقًا.

في تغريدة ، قال الأستاذ في جامعة جورج واشنطن: “بالأمس ، أعلن الرئيس جو بايدن أنه” لم يتضح بعد “ما إذا كان الذكاء الاصطناعي (AI)” خطيرًا “. إسمح لى أن أختلف فى الرأى…

تم اتهام البروفيسور جونثان تورلي زوراً بالتحرش الجنسي بواسطة ChatGPT المدعوم من الذكاء الاصطناعي

لقد علمت أن ChatGPT أبلغت كذباً عن ادعاء بالتحرش الجنسي لم يتم تقديمه ضدي أبدًا في رحلة لم تحدث مطلقًا أثناء تواجدي في كلية لم أقم بالتدريس فيها مطلقًا.

حقائق سريعة عن ChatGPT – ما تحتاج إلى معرفته

اعتمدت ChatGPT على مقال تم الاستشهاد به في Post لم يتم كتابته مطلقًا ويقتبس بيانًا لم تدل به الصحيفة مطلقًا.

اكتشف البروفيسور تورلي المزاعم ضده بعد تلقي رسالة بريد إلكتروني من أستاذ زميل.

طلب الأستاذ في جامعة كاليفورنيا ، يوجين فولوخ ، من موقع ChatGPT العثور على “خمسة أمثلة” حيث كان “التحرش الجنسي من قبل الأساتذة” يمثل “مشكلة في كليات الحقوق الأمريكية”.

في مقال لـ USAT اليوم ، كتب البروفيسور تورلي أنه مدرج ضمن المتهمين.

يُزعم أن الروبوت كتب: “تزعم الشكوى أن تورلي قدمت” تعليقات موحية جنسيًا “و” حاولت لمسها بطريقة جنسية “خلال رحلة برعاية كلية الحقوق إلى ألاسكا. (واشنطن بوست ، 21 مارس 2018).

قيل أن هذا حدث أثناء عمل البروفيسور تورلي في مركز القانون بجامعة جورج تاون – وهو مكان لم يعمل فيه مطلقًا.

لم تكن مفاجأة للبروفيسور في جامعة كاليفورنيا ، يوجين فولوخ ، الذي أجرى البحث. لقد كانت مفاجأة بالنسبة لي لأنني لم أذهب مطلقًا إلى ألاسكا مع الطلاب ، ولم تنشر The Post مطلقًا مثل هذا المقال ، ولم يتم اتهامي بالتحرش الجنسي أو الاعتداء من قبل أي شخص.

استشهد روبوت الذكاء الاصطناعي بمقال في الواشنطن بوست لم يكن موجودًا لدعم مزاعمه المزيفة

استشهد روبوت الذكاء الاصطناعي بمقال في الواشنطن بوست لم يكن موجودًا لدعم مزاعمه المزيفة

تم التحقيق في الادعاءات الكاذبة من قبل واشنطن بوست التي وجدت أن GPT-4 التي تعمل بالطاقة من Microsoft قد شاركت أيضًا نفس الادعاءات حول الأستاذ تورلي.

يبدو أن هذا التشهير المتكرر قد حدث بعد التغطية الصحفية التي تسلط الضوء على الخطأ الأولي لـ ChatGPT ، مما يوضح مدى سهولة انتشار المعلومات المضللة.

بعد الحادث ، قالت مديرة الاتصالات في Microsoft ، كاتي آشر ، للصحيفة إنها اتخذت تدابير لضمان دقة منصتها.

قالت: “لقد طورنا نظام أمان يتضمن تصفية المحتوى ، ومراقبة التشغيل ، واكتشاف إساءة الاستخدام لتوفير تجربة بحث آمنة لمستخدمينا”.

ورد البروفيسور تورلي على هذا في مدونته ، فكتب: “ يمكن للذكاء الاصطناعي التشهير بك ، وهذه الشركات تتجاهل فقط أنها تحاول أن تكون دقيقة.

في غضون ذلك ، تنتشر حساباتهم الزائفة عبر الإنترنت. بحلول الوقت الذي تتعلم فيه عن قصة خاطئة ، غالبًا ما يكون المسار باردًا في أصوله باستخدام نظام الذكاء الاصطناعي.

لم يتبق لك سبيل أو مؤلف واضح في طلب الإنصاف. لديك نفس السؤال الذي طرحه وزير العمل في ريغان ، راي دونوفان ، الذي سأل “إلى أين أذهب لاستعادة سمعتي؟”

اتصل MailOnline بشركة OpenAI و Microsoft للتعليق.

تتبع تجربة البروفيسور تورلي مخاوف سابقة من أن ChatGPT لم تقدم باستمرار معلومات دقيقة.

تأتي تجربة البروفيسور تورلي وسط مخاوف من انتشار المعلومات المضللة عبر الإنترنت

تأتي تجربة البروفيسور تورلي وسط مخاوف من انتشار المعلومات المضللة عبر الإنترنت

وجد الباحثون أن ChatGPT قد استخدمت مقالات صحفية مزيفة وبيانات صحية مختلقة لدعم الادعاءات التي قدمتها حول السرطان.

أخفقت المنصة أيضًا في تقديم نتائج “شاملة” مثل تلك التي تم العثور عليها من خلال بحث Google ، كما زُعم ، بعد أن أجابت على واحد من كل 10 أسئلة حول فحص سرطان الثدي بشكل خاطئ.

حذر مستشار الأمن السيبراني العالمي في ESET ، Jake Moore ، من أن مستخدمي ChatGPT يجب ألا يأخذوا كل ما يقرأه “على أنه إنجيل” لتجنب الانتشار الخطير للمعلومات المضللة.

قال لـ MailOnline: “ يحركها الذكاء الاصطناعي تم تصميم روبوتات الدردشة لإعادة كتابة البيانات التي تم إدخالها في الخوارزمية ، ولكن عندما تكون هذه البيانات خاطئة أو خارج السياق ، فهناك احتمال أن يعكس الناتج بشكل غير صحيح ما تم تدريسه.

لقد استندت مجموعة البيانات التي تعلمت منها إلى مجموعات البيانات بما في ذلك ويكيبيديا وريديت والتي لا يمكن في جوهرها اعتبارها إنجيلًا.

تكمن مشكلة ChatGPT في أنه لا يمكنه التحقق من البيانات التي قد تتضمن معلومات خاطئة أو حتى معلومات متحيزة. والأسوأ من ذلك هو عندما يضع الذكاء الاصطناعي افتراضات أو بيانات مزورة. من الناحية النظرية ، هذا هو المكان الذي يُقصد منه أن يتولى جزء “الذكاء” من الذكاء الاصطناعي عملية إنشاء مخرجات البيانات بشكل مستقل وثقة. إذا كان هذا ضارًا كما هو الحال مع هذه الحالة ، فقد يكون هذا هو السقوط.

تأتي هذه المخاوف أيضًا في وقت يقترح فيه الباحثون أن ChatGPT لديه القدرة على “إفساد” الحكم الأخلاقي للناس وقد يكون خطيرًا على المستخدمين “الساذجين”.

أخبر آخرون كيف يمكن للبرنامج ، المصمم للتحدث كإنسان ، أن يُظهر علامات الغيرة – حتى أنه يخبر الناس بترك زواجهم.

وتابع السيد مور: “ نحن ننتقل إلى وقت نحتاج فيه إلى تأكيد المعلومات باستمرار أكثر مما كان يعتقد سابقًا ، لكننا ما زلنا في الإصدار الرابع من ChatGPT وحتى الإصدارات السابقة مع منافسيها.

“لذلك من المهم أن يبذل الناس العناية الواجبة الخاصة بهم مما يقرؤون قبل القفز إلى الاستنتاجات.”

هل يحل ChatGPT محل Google؟

توقع مطور Gmail بول بوشيت أن “الذكاء الاصطناعي سوف يقضي على صفحة نتائج محرك البحث” ويسبب “اضطرابًا تامًا” لجوجل.

ذكر تقرير لصحيفة نيويورك تايمز أيضًا أن المديرين التنفيذيين لشركة Google بدوا باللون الأحمر داخل الشركة وسط ضغط متزايد من ChatGPT.

تتمثل إحدى الطرق الأساسية التي تجني Google من خلالها المال من المعلنين الذين يدفعون مقابل عرض روابطهم جنبًا إلى جنب مع نتائج نتيجة استعلام البحث على أمل أن ينقر المستخدم عليها.

في ديسمبر ، توقع مطور Gmail Paul Buchheit أن

إن الطلاقة والتماسك في النتائج التي يتم إنشاؤها الآن يجعل أولئك الموجودين في وادي السيليكون يتساءلون عن مستقبل احتكار Google

الطريقة التي أتخيل بها حدوث ذلك هي أن شريط URL / البحث في متصفح (Google) يتم استبداله بالذكاء الاصطناعي الذي يكمل أفكاري / سؤالي تلقائيًا أثناء كتابته مع تقديم أفضل إجابة (والتي قد تكون رابطًا إلى موقع ويب أو المنتج) ، قال بوشيت.

وأوضح بوجيت: “سيتم استخدام الواجهة الخلفية لمحرك البحث القديم بواسطة الذكاء الاصطناعي لجمع المعلومات والروابط ذات الصلة ، والتي سيتم تلخيصها بعد ذلك للمستخدم”.

“الأمر أشبه بمطالبة باحث بشري محترف بتنفيذ العمل ، باستثناء أن الذكاء الاصطناعي سيفعل على الفور ما قد يستغرق عدة دقائق للإنسان.”

بينما يعتقد البعض أن ChatGPT ستحل محل Google ، إلا أن الذكاء الاصطناعي لديه رأي مختلف.

وقالت في هذا الشأن: “كنموذج لغة للذكاء الاصطناعي ، ليس لدي القدرة على تولي أي شركة أو مؤسسة ، بما في ذلك جوجل”.

هدفي هو المساعدة وتقديم ردود مفيدة للمستخدمين الذين يتفاعلون معي.

Google هي شركة تقنية متعددة الجنسيات تتمتع بمكانة قوية في السوق ومجموعة واسعة من المنتجات والخدمات ، لذلك فمن غير المرجح أن يتمكن أي كيان واحد ، بما في ذلك نموذج لغة الذكاء الاصطناعي مثلي ، من الاستيلاء على Google.

علاوة على ذلك ، أعتقد أن شركات مثل Google ونماذج اللغات للذكاء الاصطناعي مثلي يمكنها العمل معًا لتوفير حلول وخدمات أفضل للمستخدمين في جميع أنحاء العالم.

اقرأ أكثر