الأخبار التكنولوجية والاستعراضات والنصائح!

أدوات الذكاء الاصطناعى يمكنها اكتشاف Deepfakes ، لكن إلى متى؟

لقد كانت Deepfakes – تلك الفيديوهات الواقعية التي تظهر بأسلوب الذكاء الاصطناعي والتي تصور الأحداث التي لم تحدث بالفعل – مصدر قلق لعدة سنوات ، ومع تقدم التكنولوجيا ، يزداد صعوبة الكشف.

في الوقت الحالي ، تترك الصور ومقاطع الفيديو التي تم تحريرها بصمات رقمية يمكن اكتشافها باستخدام الأدوات المناسبة. على سبيل المثال ، طور الباحثون في جامعة كاليفورنيا في ريفرسايد خوارزمية AI يمكنها التعرف على الصور ومقاطع الفيديو التي تم التلاعب بها من خلال العثور على قطع أثرية غير واضحة تركتها أدوات التحرير.

تجد خوارزمية التعلم العميقة هذه – من آميت روي تشودري ، أستاذ الهندسة الكهربائية وهندسة الكمبيوتر ، والباحثين في مجال UCR – حالات شاذة ناجمة عن إدخال أو إزالة أو معالجة الأشياء في الصور. تشرح روي تشودري أن الفكرة هي توطين التلاعب بالصور. "نحن ندرب شبكة عصبية لتحديد المناطق التي تم التلاعب بها في الصور المستقبلية" ، كما يقول.

تطوير "شبكة عصبية جيدة التدريب"

الشبكات العصبية هي المكون الأساسي لخوارزميات التعلم العميق. على عكس البرامج الكلاسيكية ، حيث يعطي المطورون تعليمات الكمبيوتر يدويًا ، تطور الشبكات العصبية سلوكهم من خلال تحليل الأمثلة ومقارنتها.

تعتبر الشبكات العصبية جيدة بشكل خاص في العثور على الأنماط وتصنيف البيانات غير المنظمة وغير المنظمة مثل الصور ومقاطع الفيديو. عندما تزود شبكة عصبية بأمثلة كافية لنوع معين من الصور – عملية تسمى "تدريب" – ستكون قادرًا على العثور على ميزات مماثلة في الصور التي لم ترها من قبل.

يقول روي تشودري: "عندما يتعامل شخص ما مع صورة ما ، فإنه يحاول القيام بذلك بطريقة لا يمكن اكتشافها للعين البشرية". "لكن عادةً ما يتأثر جزء من مساحة البكسل بهذه العمليات."

قام باحثو UCR بتدريب شبكتهم العصبية على الصور المشروحة التي تم معالجتها بأدوات مختلفة والسماح لها باكتشاف أنماط البكسل الشائعة المرئية على حدود الكائنات المتأثرة. بعد التدريب ، يمكن لنموذج AI تسليط الضوء على المساحات في الصور التي تحتوي على كائنات يتم معالجتها.

اصطياد Deepfake

في المرحلة الحالية ، يعمل نموذج التعلم العميق على الصور الثابتة ، ولكن يمكن تعديل نفس التقنية لتعيين أعماق الأوراق وغيرها من تقنيات معالجة الفيديو. Deepfakes هي مقاطع فيديو يتم فيها تغيير كل إطار لاستبدال وجه بآخر.

يقول روي تشودري: "يمكن استخدام الفكرة لمقاطع الفيديو أيضًا. في كل إطار توجد منطقة تم التلاعب بها ، ويمكن لشبكة عصبية مدربة جيدًا إبراز المنطقة التي تم العبث بها".

تعد الشبكة العصبية UCR واحدة من العديد من الجهود التي تهدف إلى اللحاق بالمصادفة وغيرها من تقنيات التلاعب بالصور والفيديو. في وقت سابق من هذا العام ، طور الباحثون في جامعة سوري مجموعة من شبكات blockchain والشبكات العصبية لتسجيل مقاطع فيديو أصلية وتحديد الإصدارات التي تم العبث بها. استخدم مشروع آخر لجامعة ألباني شبكتين عصبيتين للكشف عن مقاطع الفيديو المركبة من خلال إيجاد ظواهر غير طبيعية مثل العيون غير المرتبطة.

ولكن مع تحسن طرق التعرف ، تتحسن تقنية إنشاء صور ومقاطع فيديو واقعية مزورة. يقول روي تشودري: "هذه لعبة قطة وفأر". "إنها مشكلة غير تافهة. ومهما فعلنا ، فإن الأشخاص الذين يخلقون هذه التلاعب يتوصلون إلى شيء آخر. لا أعرف ما إذا كان سيكون هناك وقت لنستطيع فيه اكتشاف أي نوع من أنواع التلاعب".