الأخبار التكنولوجية والاستعراضات والنصائح!

اكتشاف Deepfakes قد يعني قراءة الشفاه

(ألكسندرا روبنسون / وكالة الصحافة الفرنسية / غيتي إيماجز)

LAS VEGAS – كانت مقاطع فيديو Deepfake مضحكة لنحو 10 ثوانٍ ، ثم أدركنا جميعنا الآثار الرهيبة. كيف يمكن للناس أن يقولوا ما هو حقيقي وما هو ليس عندما لا يثقون في أعينهم؟

Black Hat Bug Art "border =" 0 "class =" left "src =" https://assets.pcmag.com/media/images/436316-black-hat-bug-art.jpg؟thumb=y&width=980&height= 85في Black Hat هنا ، قدم باحثو ZeroFox تقنياتهم الخاصة بتحديد مقاطع فيديو deepfake. ركض CTO Mike Price عبر تاريخ deepfakes ويفوق العملية المستخدمة لإنشائها. ثم قام مات برايس ، وهو مهندس أبحاث رئيسي في ZeroFox (بدون علاقة) ، بالبحث عن أدوات الكشف المتوفرة وعيوبها ، قبل تقديم أدواته الخاصة.

كيف تصنع Deepfakes

وكتجديد المعلومات ، فإن deepfake هو فيديو تم إنشاؤه باستخدام الذكاء الاصطناعي. تحلل التكنولوجيا فيديو الفرد لإنشاء مقطع جديد ومقنع منه. قد تكون النتائج مسلية ولكنها مخيفة أيضًا ، لأنه من الممكن إنشاء مقاطع فيديو زائفة يمكن مشاركتها بسهولة عبر الإنترنت.

من جانبه ، يعتقد مايك برايس أن مصطلح "deepfake" يساء استخدامه وقد نما ليشمل أي فيديو معالج. قدم تعريفًا أكثر دقة: مقطع فيديو تم فيه تبديل وجه شخص ما على وجه شخص آخر. تتضمن هذه العملية تغذية لقطات لشخصين مستهدفين في خوارزمية تعلم عميقة لتدريبها على تبديل الوجوه ، ثم استخدام هذه المعلومات لمقابلة الفيديو الثالث وجهاً لوجه.

أشار مايك برايس إلى أن سعر إنشاء وتوزيع deepfake باهظ في هذه المرحلة. ناقش جيمس فوستر ، الرئيس التنفيذي لشركة ZeroFOX ، في السابق التهديد المحتمل الذي تشكله الحواجز في عرض تقديمي لـ RSAC 2019 حول حملات التأثير الانتخابي. في ذلك الوقت ، أوضح فوستر قلقه بشأن تكلفة تحديد مقاطع الفيديو الخاصة بـ deepfake ؛ أنها رخيصة لإنشاء ولكن من الصعب جدًا تحديدها وإزالتها تلقائيًا.

من الواضح أن Deepfakes جاهزة للاستخدام في حملات التشويه ، لكن مايك برايس يعتقد أنه لا يزال يمثل تهديدًا في المستقبل. "من بين جميع الأخطاء العميقة المعروفة التي نعرفها ، لم يتم استخدام أي منها حتى الآن للأغراض الخبيثة". هذا المراسل سوف يجادل بأن deepfakes الإباحية ، ومع ذلك ، فهي ضارة.

لتوضيح كيفية استخدام ملفات الاستعارة في حملة التضليل الخبيثة ، أنشأ Mike Price أداة تنشئ وتوزع أعطال تلقائيًا. باستخدام مثال حميدة لمقطع فيديو deepfake حيث عبر النائب آدم شيف عن حبه للكلاب ، أظهر Mike Price كيف يمكن إعادة تحريره بحيث بدا وكأنه مقطع Fox News أو CNN أو MSNBC. ثم يمكن لأدواته تحميل هذا الفيديو وتوزيعه تلقائيًا عبر البريد الإلكتروني والرسائل النصية القصيرة.

هذا المتجه الأخير هو أحد مايك برايس يعتقد أنه يمكن أن يكون فعالًا للغاية ويتعلق بسؤاله الأساسي: "إذا قام شخص ما بعمل أفضل قليلاً مع مقاطع الفيديو هذه ونشرها عشية الانتخابات ، هل سنكون مجهزين للتعامل مع ذلك؟ " لا يعتقد ذلك.

كيفية اكتشاف Deepfake

صنع رهان عميق أمر رخيص وسهل ، لكن اكتشافها أمر أصعب بكثير. وقال مات برايس: "واحدة من أولى النقاط التي أود أن أوضحها: البشر هم آلات الكشف الرهيبة". استشهد بدراسة تسمى FaceForensics ، والتي وجدت أن البشر لا يمكنهم تحديد الصور الحقيقية سوى 80 في المئة من الوقت.

وقال مات برايس: "في أحسن الأحوال ، كان البشر قادرين على تحديد تلك التزوير بمعدل 75 في المائة وفي أسوأ الأحوال بمعدل 40 في المائة". "إن جيش المحللين البشريين الذي ستنشره للكشف عن أعماق الحشرات لن ينجح."

الآلات ، من ناحية أخرى ، يمكنها القيام بعمل أفضل ، ولكن فقط في ظل ظروف معينة. حدد مات برايس عدة طرق لتحديد مقاطع الفيديو المزيفة. يمكن للعناصر الفسيولوجية ، مثل الوامض أو التنفس ، أن تساعد ، ولكن يمكن أيضًا حجبها عن طريق إضافة لقطات أكثر تنوعًا في خوارزمية deepfake. دراسة أنماط PRNU في لقطات – والتي هي عيوب فريدة من نوعها لمستشعر الضوء لطرز الكاميرا المحددة – يعمل أيضا ، ولكن بمجرد أن تشارك عدة زوايا الكاميرا ، يصبح أقل فائدة. ولأن عناصر الوجه يجب تشوهها وإعادة تنظيمها في أعماق الأوراق ، فإن القطع الأثرية أو الاختلالات في تناظر الوجه يمكن أن تكون مفيدة أيضًا في اكتشاف أعماق الوجه.

إحدى الأدوات الواعدة التي تم تحديدها في "مات برايس" هي "الشبكات العصبية المتكررة" ، والتي يمكن تدريبها على تحديد التناقضات في ظروف الإضاءة أو الظلال أو الانعكاسات أو حتى الوجه العميق. يعمل هذا لأن خوارزميات deepfake تعمل إطارًا تلو الآخر ولكن لا "تتذكر" ما تم إنشاؤه للإطارات السابقة.

أوضح مات برايس أيضًا كيف يمكن تصميم نماذج الكشف للأفراد ، مثل السياسيين رفيعي المستوى الذين من المرجح أن يكونوا مصطنعين. هذه الطريقة مفيدة بشكل خاص ، حيث يمكن تدريب نموذج الكشف باستخدام لقطات أصلية فقط ، بدلاً من الاضطرار إلى الاختلاط في أعماق الأوراق. الجانب السلبي ، بالطبع ، هو أنه يعمل فقط لشخص واحد ولا يمكن تعميمه.

على الرغم من أن كل طريقة من طرق الكشف هذه لها إيجابيات وسلبيات ، فإنها تشترك جميعها في خلل عالمي واحد: حيث أن جودة الفيديو تنخفض ، وكذلك معدل الكشف. وقال مات برايس: "على الأرجح ، سيكون بإمكانك الوصول إلى الفيديو المضغوط". ذلك لأنه لكي تكون لعبة deepfake فعالة ، يجب ضغطها ومشاركتها على منصات متعددة. الأشياء الأخرى التي تنقل لأعلى اكتشاف deepfake هي عندما يكون مقطع صغير فقط من الفيديو مزيفًا أو مزيف شخص واحد فقط في مجموعة من الأشخاص.

Deepfake فيلم ستار

بالنظر إلى كل هذه القيود ، أراد مات برايس إيجاد حل وحيد يمكنه العثور على الزيف عبر جميع أنواع الأعماق. والنتيجة هي Mouthnet ، وهي أداة تنظر فقط إلى الفم. يجب أن تعمل ، نظري مات برايس ، لأن ذبابة الريشة تحتاج إلى تحرير فم الهدف من أجل جعلهم يقولون شيئًا ما. "قد لا تلمس العينين ، قد لا تلمس الأنف ، عليك أن تلمس الفم" ، أوضح.

باستخدام 200 فيديوهات deepfake للتدريب ، قام بوضع نموذجه مقابل 100 فيديو لم يتم استخدامها في التدريب ؛ تم اكتشاف 41 في المائة من أعماق المعادن ، لكن تم تصنيف 10 في المائة منها بشكل خاطئ. من الصور المنفردة المأخوذة من الفيديوهات ، حدد موقع Mouthnet المزيفة 53 بالمائة من الوقت. هذه النتائج ليست مفككة ، لكن مات برايس يقول إن مجموعة البيانات كانت صعبة للغاية ، لذلك فهو سعيد. مع مرور الوقت ، يخطط لتحسين النموذج من خلال تدريب إضافي على التعلم الآلي.

لمواجهة التهديد الذي تشكله deepfakes ، تقوم ZeroFox بإصدار أداة تسمى Deepstar ، والتي "تقوم بأتمتة بعض المهام التي تتطلب عمالة كثيفة" ، حسبما ذكرت الشركة في منشور بالمدونة. "على سبيل المثال ، يمكنه التقاط الفيديو من مواقع المحتوى ، وانتزاع الإطارات من الفيديو المطلوب لتدريب أو إعادة تدريب مصنّفي التعليم العميق ، وتنفيذ التحويلات المطلوبة على تلك الإطارات ، مثل استخراج الوجه ، وأتمتة اختبار وتسجيل نماذج الكشف الجديدة ، لتسمية بعض القدرات. "

كما تصدر ZeroFox برنامج Mouthnet ، إلى جانب أدوات أخرى.

وقال مايك برايس في بيان صحفي: "مع إصدار Deepstar ، سيكون للباحثين والمدافعين أداة إضافية في مجموعة أدواتهم للمساعدة في تبسيط عملية البحث عن اكتشاف deepfake". "مع احتمال إساءة استخدام المصنفات العميقة كجزء من محاولة لتضليل الجمهور ، شعرنا أنه من المهم المساهمة بمجموعة أدواتنا في المجتمع الذي قام بالفعل ببعض الأعمال الرائعة ، ولمساعدة المدافعين على تحسين قدرتهم على الاستعداد لمواجهة التحديات المستقبلية في هذه المنطقة."

تأمل ZeroFox في أن يتمكن مجتمع الأمان من استخدام هذه الأدوات لإنشاء أدوات أكثر فائدة يمكنها التخلص من الأخطاء العميقة. Deepstar مفتوح المصدر ، وسيكون متاحًا قريبًا من موقع ZeroFox.