تفحص Google حسابات Gmail و Drive بحثًا عن رسوم متحركة تصور الاعتداء الجنسي على الأطفال

تفحص Google حسابات Gmail و Drive بحثًا عن رسوم متحركة تصور الاعتداء الجنسي على الأطفال 1

إحدى المشكلات التي تحتاج شركات التكنولوجيا إلى حلها هي مشاركة صور الاعتداء الجنسي على الأطفال (CSAM) على منصاتها. إنها مشكلة دائمة التطور ، مع كل من المخاوف المتعلقة بخصوصية المستخدم وحماية القصر في حالة توازن دائم.

كشف أمر بحث حديث أن Google تبحث أيضًا عن رسوم متحركة تصور CSAM وأنواع أخرى معروفة سابقًا من CSAM.

كان أمر التفتيش المعني من أواخر عام 2020 في كانساس. نحن لا نذكر موضوع الأمر ، لأن الدولة لم تقدم أي اتهامات.

اكتشفت أنظمة Google “فنًا رقميًا أو رسومًا كرتونية تصور أطفالًا يمارسون سلوكًا جنسيًا صريحًا أو يشاركون في اتصال جنسي” في حساب الفنان على Google Drive. من المحتمل أن يكون ذلك مسحًا آليًا ، حيث يبحث الذكاء الاصطناعي عن “علامات التجزئة” ، وهي أوصاف رقمية لملف ، تم إنشاؤه من مادة CSAM معروفة سابقًا.

مثل Apple، تقوم شركات التكنولوجيا الكبيرة الأخرى أيضًا بفحص البريد الإلكتروني بشكل روتيني بحثًا عن صور CSAM. من الأسهل التعامل مع خدمات البريد الإلكتروني غير المشفرة حسب التصميم.

الجزء الصعب هو عندما تحتاج شركات التكنولوجيا هذه إلى البحث في الخدمات المشفرة ، مثل iCloud Photos ، عن محتوى غير قانوني.

كيف يوازنون بين خصوصية المستخدم والحاجة إلى الحفاظ على أمان الأطفال؟ كيف يتم تأمين الأدوات حتى لا يساء استخدامها؟ ماذا يحدث في حالة الإيجابيات الكاذبة؟

هذه كلها أسئلة ربما تكون أكبر من أن تجيب عليها أي شركة. يتمثل أحد الإجراءات الممكنة لـ NCMEC في تشكيل اتحاد مع شركات التكنولوجيا الكبرى. بهذه الطريقة ، سيكون الجميع على نفس الصفحة. سيكون من الضروري أيضًا إشراك دعاة الخصوصية لحماية خصوصية المستخدم.

توصيات المحرر:

تفحص Google حسابات Gmail و Drive بحثًا عن رسوم متحركة تصور الاعتداء الجنسي على الأطفال 2

مقالات ذات صلة

Back to top button