الأخبار التكنولوجية والاستعراضات والنصائح!

يمكن لمهاراتنا في اكتشاف التزييف العميق في اللاوعي أن تدعم الأنظمة الآلية المستقبلية

ستساعدك المقالة التالية: يمكن لمهاراتنا في اكتشاف التزييف العميق في اللاوعي أن تدعم الأنظمة الآلية المستقبلية

يقترح بحث جديد من أستراليا أن دماغنا بارع في التعرف على الصور المزيفة المعقدة ، حتى عندما نعتقد بوعي أن الصور التي نراها حقيقية.

تشير النتائج أيضًا إلى إمكانية استخدام الاستجابات العصبية للأشخاص على الوجوه المزيفة (بدلاً من آرائهم المعلنة) لتدريب أنظمة اكتشاف التزييف العميق الآلية. سيتم تدريب مثل هذه الأنظمة على خصائص الصور المزيفة العميقة ليس من التقديرات المشوشة للمعقولية ، ولكن من آليات الإدراك الحسية الغريزية للتعرف على هوية الوجه.

ظهرت النتائج في جولات من الاختبارات المصممة لتقييم الطريقة التي يستجيب بها الأشخاص للصور الزائفة ، بما في ذلك صور الوجوه المزيفة بشكل واضح ، والسيارات ، والمساحات الداخلية ، والوجوه المقلوبة (أي المقلوبة).

المصدر: https://tijl.github.io/tijl-grootswagers-pdf/Moshel_et_al_-_2022_-_Are_you_for_real_Decoding_realistic_AI-generated_.pdf

تؤكد الورقة:

تشير الورقة البحثية إلى أن العمل الجديد له “ عدة آثار ” في الأمن السيبراني التطبيقي ، وأن تطوير مصنفات التعلم العميق ربما يكون مدفوعًا بالاستجابة اللاواعية ، كما تم قياسها على قراءات EEG ردًا على الصور المزيفة ، بدلاً من التقدير الواعي للمشاهد من صحة الصورة.

تعليق المؤلفين *:

ال عمل جديد يحمل العنوان ، ويأتي من أربعة باحثين من جامعة سيدني وجامعة ماكواري وجامعة ويسترن سيدني وجامعة كوينزلاند.

بيانات

ظهرت النتائج من فحص أوسع لقدرة الإنسان على التمييز بين الصور الخاطئة بوضوح ، والصور الواقعية المفرطة (ولكنها لا تزال خاطئة) ، والصورة الحقيقية ، التي أجريت عبر جولتين من الاختبارات.

استخدم الباحثون الصور التي تم إنشاؤها بواسطة شبكات الخصومة التوليدية (GANs) ، مشترك بواسطة NVIDIA.

المصدر: https://drive.google.com/drive/folders/1EDYEYR3IB71-5BbTARQkhg73leVB9tam

تتألف البيانات من 25 وجهًا وسيارة وغرف نوم ، بمستويات تصيير تتراوح من “غير واقعي” إلى “واقعي”. لمقارنة الوجه (على سبيل المثال بالنسبة للمواد المناسبة غير المزيفة) ، استخدم المؤلفون اختيارات من البيانات المصدر لمصدر NVIDIA Flickr-Faces-HQ (FFHQ) مجموعة البيانات. للمقارنة بين السيناريوهات الأخرى ، استخدموا مواد من LSUN مجموعة البيانات.

سيتم تقديم الصور في النهاية لموضوع الاختبار إما بالطريقة الصحيحة لأعلى ، أو مقلوبة ، وفي نطاق من الترددات ، مع تغيير حجم جميع الصور إلى 256 × 256 بكسل.

بعد تجميع كل المواد ، تم تنسيق 450 صورة محفزة للاختبارات.

الاختبارات

تم إجراء الاختبارات نفسها في البداية عبر الإنترنت ، من خلال jsPsych على Pavlovia.org ، مع 200 مشارك يحكمون على مجموعات فرعية مختلفة من إجمالي بيانات الاختبار التي تم جمعها. تم تقديم الصور لمدة 200 مللي ثانية ، تليها شاشة فارغة تستمر حتى يتخذ المشاهد قرارًا بشأن ما إذا كانت الصورة الوامضة حقيقية أم مزيفة. تم تقديم كل صورة مرة واحدة فقط ، واستغرق الاختبار بأكمله 3-5 دقائق.

الجولة الثانية والأكثر كشفًا المستخدمة بشكل شخصي مع أجهزة مراقبة EEG ، وتم تقديمها على سايكوبي 2 منصة. احتوى كل تسلسل من العشرين تسلسلًا على 40 صورة ، مع 18000 صورة معروضة عبر الشريحة الكاملة لبيانات الاختبار.

تم فك تشفير بيانات EEG المجمعة عبر MATLAB باستخدام صندوق أدوات CoSMoMVPA ، باستخدام ملف إجازة واحدة خارج التحقق المتصالب مخطط تحت التحليل الخطي التمييز (LDA).

كان مصنف LDA هو المكون الذي كان قادرًا على التمييز بين رد فعل الدماغ على المنبهات المزيفة ، ورأي الموضوع نفسه حول ما إذا كانت الصورة مزيفة.

نتائج

مهتمين بمعرفة ما إذا كان بإمكان المشاركين في اختبار EEG التمييز بين الوجوه المزيفة والحقيقية ، قام الباحثون بتجميع النتائج ومعالجتها ، ووجدوا أن المشاركين يمكنهم تمييز الوجوه الحقيقية من غير الواقعية بسهولة ، لكنهم على ما يبدو كافحوا لتحديد الوجوه المزيفة الواقعية الناتجة عن GAN. يبدو أن ما إذا كانت الصورة مقلوبة أم لا تحدث فرقًا بسيطًا.

ومع ذلك ، أخبرت بيانات EEG قصة مختلفة.

تقول الورقة:

خلص الباحثون إلى أنه على الرغم من أن المراقبين قد يواجهون صعوبة في تحديد الوجوه المزيفة ضمنيًا ، إلا أن هذه الوجوه لها “ تمثيلات مميزة في النظام البصري البشري ”.

تسبب التباين الذي تم العثور عليه في جعل الباحثين يتكهنون بإمكانية تطبيق نتائجهم على آليات الأمان المستقبلية:

يستنتجون: