صعود لا يمكن وقفه لمزيفات العميقة الفظيعة: مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تظهر بايدن يرتدي زي ديلان مولفاني من Bud Light وتعليم ترامب التهرب الضريبي ينتشر بسرعة … لكن الخبراء يحذرون من أن التكنولوجيا ستكون أداة فعالة للتضليل خلال انتخابات 2024

تسلط مقاطع فيديو مزيفة عميقة للرئيس جو بايدن والمرشح الجمهوري الأوفر حظًا دونالد ترامب الضوء على كيف أن السباق الرئاسي لعام 2024 يمكن أن يكون أول اختبار جاد لمرونة الديمقراطية الأمريكية في مواجهة الذكاء الاصطناعي.

تظهر مقاطع الفيديو لبايدن وهو يرتدي زي النجم العابر ديلان مولفاني وهو يروج لـ Bud Light ويعلم ترامب التهرب الضريبي داخل صالون أظافر هادئ في البوكيرك أنه حتى الشخصيات الأكثر نفوذاً في البلاد ليست في مأمن من سرقة هوية الذكاء الاصطناعي.

يقول الخبراء أنه في حين أنه من السهل نسبيًا اليوم اكتشاف هذه المنتجات المقلدة ، إلا أنه سيكون من المستحيل في السنوات القادمة لأن التكنولوجيا تتقدم بمثل هذه الوتيرة السريعة.

كانت هناك بالفعل لمحات عن أضرار الذكاء الاصطناعي في العالم الحقيقي. في وقت سابق من هذا الأسبوع ، أحدثت صورة صاغها الذكاء الاصطناعي لدخان أسود يتصاعد من البنتاغون موجات صادمة عبر سوق الأسهم قبل أن يتمكن مدققو الحقائق في وسائل الإعلام من تصحيح السجل أخيرًا.

يعتقد الخبراء أن الدقة المخيفة للأصوات والوجوه التي تم إنشاؤها بواسطة الذكاء الاصطناعي تعني أنه سيكون `` من الصعب بشكل متزايد تحديد المعلومات المضللة ''

حصلت لعبة Deep Fake of Biden قبل الألعاب في السحب ، والتي نشرتهاdrunkamerica على Instagram ، على 223107 إعجابًا في الأيام الخمسة الماضية. يعتقد الخبراء أن الدقة المخيفة للأصوات والوجوه التي تم إنشاؤها بواسطة الذكاء الاصطناعي تعني أنه سيكون “ من الصعب بشكل متزايد تحديد المعلومات المضللة ”

وفقًا لما ذكره كايس مايرز ، الأستاذ في كلية الاتصالات بجامعة فرجينيا للتكنولوجيا ، “لقد أصبح من الصعب بشكل متزايد تحديد المعلومات المضللة ، لا سيما Deep Fake المتطور التي تم إنشاؤها بواسطة الذكاء الاصطناعي”.

قال البروفيسور مايرز ، الذي كان يدرس تقنية Deep Fake وانتشارها المتزايد: “اكتشاف هذه المعلومات المضللة سيتطلب من المستخدمين أن يكون لديهم المزيد من المعرفة الإعلامية والذكاء في فحص حقيقة أي ادعاء”.

قال مايرز: “إن حاجز التكلفة للذكاء الاصطناعي التوليدي منخفض جدًا لدرجة أن أي شخص لديه جهاز كمبيوتر وإنترنت يمكنه الوصول إلى الذكاء الاصطناعي”.

شدد مايرز على الدور الذي يتعين على كل من شركات التكنولوجيا والمواطن العادي أن يلعبوه في منع هذه الموجات من التزييف الخارق والمعقول من هزيمة الديمقراطية الأمريكية في عام 2024.

قال مايرز: “إن فحص المصادر وفهم علامات التحذير من المعلومات المضللة والحرص فيما نشاركه على الإنترنت هي إحدى الطرق الشخصية لمكافحة انتشار المعلومات المضللة”. “ومع ذلك ، هذا لن يكون كافيا.”

سوف تحتاج الشركات التي تنتج محتوى الذكاء الاصطناعي وشركات الوسائط الاجتماعية التي تنتشر فيها المعلومات المضللة إلى تنفيذ مستوى معين من الحواجز لمنع انتشار المعلومات المضللة على نطاق واسع.

الخوف هو أن مقاطع الفيديو الخاصة بالسياسيين الذين يبشرون بكلمات لم يقلوها قط يمكن استخدامها كأداة فعالة للتضليل للتأثير على الناخبين.

تُستخدم مزارع الترول سيئة السمعة في روسيا وأجزاء أخرى من العالم المعادية للولايات المتحدة لإثارة المعارضة على وسائل التواصل الاجتماعي.

لقد مرت خمس سنوات منذ أن أنتج BuzzFeed والمخرج والممثل الكوميدي جوردان بيل هجاءً خارقًا Deep Fake للرئيس السابق باراك أوباما للفت الانتباه إلى الإمكانات المزعجة للتكنولوجيا.

قال بيل في انطباعه الخبير عن أوباما: “كان بإمكانهم أن يجعلوني أقول أشياء مثل ، لا أعرف ، (مارفل سوبرفيلين)” كان كيلمونجر على حق “، أو” بن كارسون في مكان غارق “.

قام محاكاة ساخرة مزيفة للرئيس السابق ترامب بتركيب صوته وشبهه على محامي شبكة AMC المظلل Saul Goodman في مسلسل Breaking Bad and Better Call Saul.  حصل الفيديو ، من قناة YouTube CtrlShiftFace ، على 24000 إعجاب منذ نشره

قام محاكاة ساخرة مزيفة للرئيس السابق ترامب بتركيب صوته وشبهه على محامي شبكة AMC المظلل Saul Goodman في مسلسل Breaking Bad and Better Call Saul. حصل الفيديو ، من قناة YouTube CtrlShiftFace ، على 24000 إعجاب منذ نشره

أو ، ماذا عن هذا: “ببساطة ، الرئيس ترامب هو مغفل شامل وكامل.”

لكن هذه المزاعم ليست فقط الأكاديميين والكوميديين ووسائل الإعلام.

ردد خبراء السياسة الرئيسيون مخاوفهم ، بإلحاح متزايد على مدى السنوات القليلة الماضية.

قال الخبراء الذين يكتبون لمجلس العلاقات الخارجية في عام 2019: “ إن التزييف العميق في توقيت جيد ومكتوب بعناية أو سلسلة من التزييف العميق يمكن أن يرجح الانتخابات ”.

ما هي الديبفاكس؟

تم تطوير التكنولوجيا الكامنة وراء التزييف العميق في عام 2014 من قبل إيان جودفيلو ، الذي كان مدير التعلم الآلي في مجموعة المشاريع الخاصة بشركة Apple والرائد في هذا المجال.

الكلمة نابعة من التعاون بين مصطلحي “التعلم العميق” و “المزيف” ، وهي شكل من أشكال الذكاء الاصطناعي.

يدرس النظام الشخص المستهدف في الصور ومقاطع الفيديو ، مما يسمح له بالتقاط زوايا متعددة وتقليد سلوكه وأنماط حديثه.

اكتسبت التكنولوجيا الاهتمام خلال موسم الانتخابات ، حيث يخشى الكثير من المطورين أن يستخدموها لتقويض سمعة المرشحين السياسيين.

وحذرت المجموعة أيضًا من أن شركة Deep Fakes قد “تثير العنف قريبًا في مدينة مهيأة للاضطرابات المدنية ، أو تعزز سرديات المتمردين حول الفظائع المفترضة للعدو ، أو تؤدي إلى تفاقم الانقسامات السياسية في المجتمع.”

بينما يقر مايرز في جامعة فرجينيا للتكنولوجيا بأن برامج مثل الفوتوشوب كانت قادرة على تزوير مماثل للواقع لسنوات ، إلا أنه يقول إن الاختلاف هو أن المعلومات المضللة يمكن أن تُصنع بكميات كبيرة مع تطور متزايد باستمرار. “

قال مايرز: “ يسمح Photoshop بالصور المزيفة ، لكن الذكاء الاصطناعي يمكنه إنشاء مقاطع فيديو معدلة وجذابة للغاية. بالنظر إلى أن المعلومات المضللة أصبحت الآن مصدرًا واسع الانتشار للمحتوى عبر الإنترنت ، يمكن لهذا النوع من محتوى الأخبار المزيفة أن يصل إلى جمهور أوسع ، خاصة إذا كان المحتوى ينتشر بسرعة.

يشبه إلى حد كبير مقاطع فيديو ‘Better Call Trump’ و Biden Bud Light.

جادل مايرز بأننا سنرى المزيد من المعلومات المضللة ، المرئية والمكتوبة ، الجادة والكوميدية ، في المستقبل القريب.

لكن المساعدة – في شكل تنظيم حكومي من أي نوع – لا يبدو أنها في الطريق.

هذا الأربعاء ، قال الرئيس التنفيذي السابق لشركة Google ، إريك شميدت ، وهو مستشار منذ فترة طويلة في البيت الأبيض ، والذي شارك مؤخرًا في رئاسة لجنة الأمن القومي الأمريكية المعنية بالذكاء الاصطناعي ، إنه يشك في أن الولايات المتحدة ستدفع وكالة تنظيمية جديدة للسيطرة على الذكاء الاصطناعي.

قال مايرز: “المشكلة هي أن المشرعين لا يريدون وضع قانون جديد ينظم الذكاء الاصطناعي قبل أن نعرف إلى أين تتجه التكنولوجيا”.

مرت عشرات الحسابات التي تم التحقق منها ، مثل WarMonitors و BloombergFeed و RT ، على طول الصورة التي تظهر دخانًا أسود يتصاعد من الأرض بجوار مبنى أبيض

مرت عشرات الحسابات التي تم التحقق منها ، مثل WarMonitors و BloombergFeed و RT ، على طول الصورة التي تظهر دخانًا أسود يتصاعد من الأرض بجوار مبنى أبيض

كيفية اكتشاف التزييف العميق

1. حركة العين غير الطبيعية. تعتبر حركات العين التي لا تبدو طبيعية – أو قلة حركة العين ، مثل غياب الرمش – من الأعلام الحمراء الضخمة. من الصعب تكرار فعل الوميض بطريقة تبدو طبيعية. من الصعب أيضًا تكرار حركات عين الشخص الحقيقي. هذا لأن عيون شخص ما عادة ما تتبع الشخص الذي يتحدث إليه.

2. تعابير الوجه غير الطبيعية. عندما لا يبدو شيء ما صحيحًا في الوجه ، فقد يشير ذلك إلى تحول الوجه. يحدث هذا عندما يتم خياطة صورة على أخرى.

3. تموضع محرج لميزة الوجه. إذا كان وجه شخص ما يشير في اتجاه ما وأنفه يشير إلى اتجاه آخر ، فيجب أن تكون متشككًا في مصداقية الفيديو.

4. قلة العاطفة. يمكنك أيضًا اكتشاف ما يُعرف باسم “تحوير الوجه” أو غرز الصورة إذا كان وجه شخص ما لا يظهر المشاعر التي يجب أن تتماشى مع ما يُفترض أنه يقوله.

5. الجسم أو الموقف يبدو محرجا. علامة أخرى هي أن شكل جسم الشخص لا يبدو طبيعيًا ، أو أن هناك وضعًا محرجًا أو غير متناسق للرأس والجسم. قد يكون هذا من أسهل التناقضات في اكتشافه ، لأن تقنية التزييف العميق تركز عادةً على ملامح الوجه بدلاً من الجسم كله.

6. حركة الجسم أو شكل الجسم غير الطبيعي. إذا بدا شخص ما مشوهًا أو متوقفًا عن الحركة عندما يلتفت إلى الجانب أو يحرك رأسه ، أو إذا كانت حركاته متقطعة ومفككة من إطار إلى آخر ، فيجب أن تشك في أن الفيديو مزيف.

7. تلوين غير طبيعي. إن درجة لون البشرة غير الطبيعية ، وتغير اللون ، والإضاءة الغريبة ، والظلال في غير محلها كلها علامات على أن ما تراه مزيفًا على الأرجح.

8. الشعر الذي لا يبدو حقيقيا. لن ترى الشعر المجعد أو المتطاير. لماذا؟ لن تتمكن الصور المزيفة من إنشاء هذه الخصائص الفردية.

9. الأسنان التي لا تبدو حقيقية. قد لا تكون الخوارزميات قادرة على توليد أسنان فردية ، لذا فإن غياب الخطوط العريضة للأسنان الفردية يمكن أن يكون دليلًا.

10. التعتيم أو عدم المحاذاة. إذا كانت حواف الصور ضبابية أو كانت العناصر المرئية غير محاذة – على سبيل المثال ، عندما يلتقي وجه شخص ورقبته بجسده – ستعرف أن هناك شيئًا ما غير صحيح.

11. ضجيج أو صوت غير متناسق. عادةً ما يقضي منشئو المحتوى المزيف العميق وقتًا أطول في مشاهدة صور الفيديو بدلاً من الصوت. يمكن أن تكون النتيجة ضعف مزامنة الشفاه ، أو الأصوات الآلية ، أو نطق الكلمات الغريبة ، أو ضوضاء الخلفية الرقمية ، أو حتى غياب الصوت.

12. الصور التي تبدو غير طبيعية عند إبطائها. إذا شاهدت مقطع فيديو على شاشة أكبر من هاتفك الذكي أو كان لديك برنامج لتحرير الفيديو يمكن أن يبطئ تشغيل الفيديو ، فيمكنك تكبير الصور وفحصها عن كثب. سيساعدك التكبير على الشفاه ، على سبيل المثال ، في معرفة ما إذا كانوا يتحدثون حقًا أم أنها مزامنة سيئة للشفاه.

13. تناقضات Hashtag. هناك خوارزمية تشفير تساعد منشئي الفيديو على إظهار أن مقاطع الفيديو الخاصة بهم أصلية. تُستخدم الخوارزمية لإدراج علامات التجزئة في أماكن معينة خلال مقطع فيديو. إذا تغيرت علامات التصنيف ، فيجب أن تشك في التلاعب بالفيديو.

14. البصمات الرقمية. يمكن لتقنية Blockchain أيضًا إنشاء بصمة رقمية لمقاطع الفيديو. على الرغم من أن هذا التحقق المستند إلى blockchain ليس مضمونًا ، إلا أنه يمكن أن يساعد في إثبات مصداقية الفيديو. وإليك كيف يعمل. عندما يتم إنشاء مقطع فيديو ، يتم تسجيل المحتوى في دفتر الأستاذ الذي لا يمكن تغييره. يمكن أن تساعد هذه التقنية في إثبات مصداقية الفيديو.

15. البحث عن الصور العكسي. يمكن أن يؤدي البحث عن صورة أصلية أو البحث العكسي عن الصور بمساعدة الكمبيوتر إلى اكتشاف مقاطع فيديو مماثلة عبر الإنترنت للمساعدة في تحديد ما إذا تم تغيير صورة أو صوت أو مقطع فيديو بأي شكل من الأشكال. على الرغم من أن تقنية البحث العكسي عن الفيديو ليست متاحة للجمهور بعد ، إلا أن الاستثمار في أداة مثل هذه قد يكون مفيدًا.