الأخبار التكنولوجية والاستعراضات والنصائح!

التعرف على الوجه مقابل deepfakes

في الروبوتات هناك ظاهرة معروفة باسم ازعاج الوادي: عندما تقترب النسخة المتماثلة للإنسان من ظهور شخص حقيقي أو سلوكه ، فإنها تتسبب في استجابة رفض في العارض تعرّفها بأنها مصطنعة. يحدث ذلك ، على سبيل المثال ، مع بعض الروبوتات التي تعتبر "مثالية للغاية". ال deepfakes (مقاطع الفيديو المزيفة لأشخاص حقيقيين صُنعت من خلال الذكاء الاصطناعي) تعاني أيضًا من هذه المشكلة في الوقت الحالي.

المشكلة هي أن هذه المنتجات المقلدة تتحسن وأن العديد من الخبراء يتوقعون أنها في السنوات الخمس القادمة لن تكون تمييزًا أمام المستخدمين. عندما يحدث ذلك سيكون من الأهمية بمكان أن يكون الجمهور على علم. إذا تجاهل أحد مستخدمي الإنترنت أنه يمكن خداعه ، فسيكون من السهل عليه الوقوع في فخ. وفي الوقت نفسه ، يعمل بعض الباحثين على تطوير أدوات يمكن أن تساعد في كشف التهديد الجديد.

وقبل بضعة أشهر ودعا موقع على شبكة الإنترنت ThisPersonDoesNotExist.com، التي أنشئت كوسيلة لرفع مستوى الوعي العام ، ذهب الفيروسية. تستخدم الويب الذكاء الاصطناعي لتكوين وجوه مزيفة ، على الرغم من أنها واقعية بشكل مدهش. بعد وقت قصير من ظهور مبادرة ثانية ، مع تطور جديد: WhichFaceIsReal.com والذي يسمح باختبار قدرة المستخدمين على التمييز بين المنتجات المقلدة الناتجة عن الذكاء الاصطناعي والصور الفوتوغرافية الحقيقية.

المنتجات المقلدة ليست مثالية بعد: البرنامج لا يعرف تمامًا القواعد الدقيقة للتشريح البشري وعناصر مثل الخلفية أو المجوهرات تخلق حالات فشل واضحة. ومع ذلك ، لدى المستخدمين ، في المتوسط ​​، نسبة حقيقية بين 60 ٪ و 75 ٪. حتى المشاركين الذين يتدربون أكثر ، لا يتجاوزون عتبات النجاح هذه.

تثقيف ومنع

في حالة WhoFaceIsReal ، لدى الويب أغراض أخرى تتجاوز الوعي أو الترفيه. تم إنشاؤه من قبل اثنين من الأكاديميين من جامعة واشنطن الذين يدرسون كيف يتم نشر المعلومات الخاطئة في جميع أنحاء المجتمع. يعتقدون أن الزيادة في المنتجات المقلدة الناتجة عن الذكاء الاصطناعي يمكن أن تكون مهمة خطر على ثقة المجتمع في البيانات ، ويريدون تثقيف الجمهور.

على سبيل المثال ، يحاول منشئو هذه الوجوه التي أنشأتها منظمة العفو الدولية منع عمليات التعمير ذات يوم من الاستخدام الضار لنشر معلومات خاطئة بعد هجوم إرهابي. منظمة العفو الدولية أيضا يمكن استخدامها لإنشاء الجاني كاذبة الذي يدور وجهه عبر الإنترنت وينشر في الشبكات الاجتماعية. تتحقق الوسائط عادةً من أصل الصور ، باستخدام أدوات مثل البحث العكسي عن الصور من Google ، لكن تقنية التحقق من الوقائع هذه لن تنجح مع أداة التقييم العميق.

نظم جان

يستخدم كلا الموقعين طريقة للتعلم الآلي تُعرف باسم الشبكة التكرارية التعددية (أو GAN) لإنشاء منتجات مزيفة. تعمل هذه الشبكات من خلال تحليل كميات هائلة من البيانات (في هذه الحالة ، العديد من صور الأشخاص الحقيقيين) ، وتعلم أنماطهم ثم محاولة تكرار ما شاهدوه.

السبب في أن شبكات GAN جيدة جدًا هي أنها تختبر نفسها مرارًا وتكرارًا. جزء من الشبكة يولد الوجوه والآخر يقارنها بعملياتها التدريبية. إذا كان قادرًا على اكتشاف أي عيوب ، يقوم المولد بفحص عمله وإنشاء وجه جديد.