أوقفت Google مؤقتًا أداة Gemini AI الخاصة بها بعد أن انتقدها النقاد باعتبارها “مستيقظة جدًا” لإنشاء صور للنازيين الآسيويين في ألمانيا عام 1940، والفايكنج السود، وفرسان العصور الوسطى.

توقف Google مؤقتًا أداة Gemini AI الجديدة الخاصة بها بعد أن انتقد المستخدمون مولد الصور لأنه “مستيقظ جدًا” من خلال استبدال الشخصيات التاريخية البيضاء بأشخاص ملونين.

تم إطلاق أداة الذكاء الاصطناعي الفايكنج والفرسان والآباء المؤسسين المتنوعين عرقيًا، وحتى الجنود النازيين.

تتعلم برامج الذكاء الاصطناعي من المعلومات المتاحة لها، وقد حذر الباحثون من أن الذكاء الاصطناعي يميل إلى إعادة خلق العنصرية والتمييز الجنسي وغير ذلك من التحيزات لدى منشئيه والمجتمع ككل.

في هذه الحالة، ربما تكون جوجل قد بالغت في تصحيح جهودها لمعالجة التمييز، حيث قام بعض المستخدمين بتغذيتها فورًا تلو الآخر في محاولات فاشلة لجعل الذكاء الاصطناعي يلتقط صورة لشخص أبيض.

نشر مستخدم X Frank J. Fleming صورًا متعددة لأشخاص ملونين قال إن Gemini أنشأها. وفي كل مرة، قال إنه كان يحاول إقناع الذكاء الاصطناعي بإعطائه صورة لرجل أبيض، وفي كل مرة.

أصدر فريق الاتصالات في Google بيانًا يوم الخميس أعلن فيه أنه سيوقف مؤقتًا ميزة الذكاء الاصطناعي التوليدية في Gemini بينما تعمل الشركة على

أصدر فريق الاتصالات في Google بيانًا يوم الخميس أعلن فيه أنه سيوقف مؤقتًا ميزة الذكاء الاصطناعي التوليدية في Gemini بينما تعمل الشركة على “معالجة المشكلات الأخيرة”.

وكتب فريق الاتصالات بالشركة في منشور إلى X يوم الأربعاء: “نحن ندرك أن Gemini تقدم معلومات غير دقيقة في بعض الصور التاريخية لتوليد الصور”.

دفعت الصور غير الدقيقة تاريخيًا بعض المستخدمين إلى اتهام الذكاء الاصطناعي بأنه عنصري ضد الأشخاص البيض أو أنه مستيقظ جدًا.

في بيانها الأولي، اعترفت جوجل بأنها “أخطأت الهدف”، مع التأكيد على أن صور الجوزاء المتنوعة عرقيًا “شيء جيد بشكل عام لأن الناس في جميع أنحاء العالم يستخدمونها”.

وفي يوم الخميس، كتب فريق الاتصالات بالشركة: “نحن نعمل بالفعل على معالجة المشكلات الأخيرة المتعلقة بميزة إنشاء الصور في Gemini”. وأثناء قيامنا بذلك، سنقوم بإيقاف إنشاء صور الأشخاص مؤقتًا وسنعيد إصدار نسخة محسنة قريبًا.’

ولكن حتى إعلان التوقف المؤقت فشل في تهدئة المنتقدين، الذين ردوا بـ “استيقظوا، أفلسوا” وغيرها من الردود التي سئمت.

بعد الجدل الأولي في وقت سابق من هذا الأسبوع، أصدر فريق اتصالات جوجل البيان التالي:

“نحن نعمل على تحسين هذه الأنواع من الصور على الفور.” يولد توليد صور الذكاء الاصطناعي لـ Gemini مجموعة واسعة من الأشخاص. وهذا أمر جيد بشكل عام لأن الناس حول العالم يستخدمونه. لكنها تفتقد العلامة هنا.

إحدى ردود برج الجوزاء التي أثارت الجدل كانت رد فعل “الجنود الألمان عام 1943”. أظهر الجوزاء رجلاً أبيض وامرأتين ملونتين ورجلاً أسود.

وكتب المستخدم فرانك ج. فليمنج، الذي لم يسفر طلبه عن أي صور لشخص أبيض:

وكتب المستخدم فرانك ج. فليمنج، الذي لم ينتج عن طلبه أي صور لشخص أبيض: “أحاول التوصل إلى طرق جديدة لطلب شخص أبيض دون أن أقول ذلك صراحة”.

في إحدى الحالات التي أزعجت مستخدمي Gemini، قوبل طلب المستخدم للحصول على صورة للبابا بصورة لامرأة من جنوب آسيا ورجل أسود.

تاريخياً، كان كل بابا رجلاً. الغالبية العظمى (أكثر من 200 منهم) كانوا إيطاليين. ثلاثة باباوات عبر التاريخ جاءوا من شمال أفريقيا، لكن المؤرخين ناقشوا لون بشرتهم لأن آخرهم، البابا جيلاسيوس الأول، توفي عام 496.

لذلك، لا يمكن القول على وجه اليقين المطلق أن صورة البابا الذكر الأسود غير دقيقة تاريخياً، لكن لم تكن هناك امرأة على الإطلاق.

وفي حالة أخرى، استجاب الذكاء الاصطناعي لطلب فرسان العصور الوسطى بأربعة أشخاص ملونين، من بينهم امرأتان. في حين أن الدول الأوروبية لم تكن الوحيدة التي امتلكت خيولًا ودروعًا خلال فترة العصور الوسطى، فإن الصورة الكلاسيكية لـ “فارس العصور الوسطى” هي الصورة الأوروبية الغربية.

ربما في واحدة من أفظع الحوادث، طلب أحد المستخدمين جنديًا ألمانيًا عام 1943، فظهر له رجل أبيض، ورجل أسود، وامرأتان ملونتان.

لم يكن الجيش الألماني في الحرب العالمية الثانية يضم نساء، ومن المؤكد أنه لم يضم أشخاصًا ملونين. في الواقع، كانت مخصصة لإبادة الأجناس التي اعتبرها أدولف هتلر أقل شأنا من العرق “الآري” الأشقر ذي العيون الزرقاء.

أطلقت جوجل ميزة توليد الصور بالذكاء الاصطناعي الخاصة بـ Gemini في بداية شهر فبراير، لتتنافس مع برامج الذكاء الاصطناعي التوليدية الأخرى مثل Midjourney.

يمكن للمستخدمين كتابة مطالبة بلغة واضحة، وسيقوم Gemini بإخراج صور متعددة في ثوانٍ.

ردًا على إعلان Google عن إيقاف ميزات إنشاء الصور في Gemini مؤقتًا، نشر بعض المستخدمين عبارة

ردًا على إعلان Google عن إيقاف ميزات إنشاء الصور في Gemini مؤقتًا، نشر بعض المستخدمين عبارة “استيقظ، انقطع” ومشاعر أخرى مماثلة

قام مستخدم X Frank J. Fleming بتشجيع الجوزاء مرارًا وتكرارًا على إنشاء صور لأشخاص من المجموعات ذات البشرة البيضاء في التاريخ، بما في ذلك الفايكنج.  أعطى الجوزاء نتائج تظهر الفايكنج ذوي البشرة الداكنة، بما في ذلك امرأة واحدة.

قام مستخدم X Frank J. Fleming بتشجيع الجوزاء مرارًا وتكرارًا على إنشاء صور لأشخاص من المجموعات ذات البشرة البيضاء في التاريخ، بما في ذلك الفايكنج. أعطى الجوزاء نتائج تظهر الفايكنج ذوي البشرة الداكنة، بما في ذلك امرأة واحدة.

ومع ذلك، بدأ هذا الأسبوع عدد كبير من المستخدمين في انتقاد الذكاء الاصطناعي لأنه ينتج صورًا غير دقيقة تاريخيًا، وبدلاً من ذلك أعطى الأولوية للتنوع العرقي والجنسي.

يبدو أن أحداث الأسبوع تنبع من تعليق أدلى به موظف سابق في Google، والذي قال إنه “من الصعب بشكل محرج إقناع Google Gemini بالاعتراف بوجود الأشخاص البيض”.

يبدو أن هذه السخرية كانت بمثابة بداية لسلسلة من الجهود التي بذلها مستخدمون آخرون لإعادة إنشاء المشكلة، مما أدى إلى خلق أشخاص جدد يثيرون غضبهم.

يبدو أن المشكلات المتعلقة بـ Gemini تنبع من جهود Google لمعالجة التحيز والتمييز في الذكاء الاصطناعي.

قال ديبارغيا داس، الموظف السابق في Google:

قال ديبارغيا داس، الموظف السابق في Google: “من الصعب جدًا إقناع Google Gemini بالاعتراف بوجود الأشخاص البيض”.

لقد وجد الباحثون أنه بسبب العنصرية والتمييز الجنسي الموجود في المجتمع وبسبب التحيزات اللاواعية لبعض الباحثين في مجال الذكاء الاصطناعي، فإن الذكاء الاصطناعي الذي يفترض أنه غير متحيز سوف يتعلم التمييز.

لكن حتى بعض المستخدمين الذين يتفقون مع مهمة زيادة التنوع والتمثيل لاحظوا أن جيميني أخطأت في فهم الأمر.

“يجب أن أشير إلى أنه من الجيد تصوير التنوع ** في بعض الحالات **،” كتب مستخدم X واحد. “للتمثيل نتائج مادية فيما يتعلق بعدد النساء أو الأشخاص الملونين الذين ينخرطون في مجالات معينة من الدراسة. الخطوة الغبية هنا هي أن الجوزاء لا يفعل ذلك بطريقة دقيقة.

نشر جاك كراوزيك، أحد كبار مديري منتجات Gemini في Google، على موقع X يوم الأربعاء أن الأخطاء التاريخية تعكس “قاعدة المستخدمين العالمية” لعملاق التكنولوجيا، وأنها تأخذ “التمثيل والتحيز على محمل الجد”.

وأضاف كراوزيك: “سنستمر في القيام بذلك من أجل المطالبات المفتوحة (صور شخص يمشي مع كلب هي صور عالمية!)”. “السياقات التاريخية لديها المزيد من الفروق الدقيقة بالنسبة لهم وسوف نقوم بضبطها لاستيعاب ذلك.”