الأخبار التكنولوجية والاستعراضات والنصائح!

قد يحتوي جهاز iPhone الخاص بك قريبًا على ميزة تقوم تلقائيًا بمسح صورك بحثًا عن إساءة معاملة الأطفال

قد يحتوي جهاز iPhone الخاص بك قريبًا على ميزة تقوم تلقائيًا بمسح صورك بحثًا عن إساءة معاملة الأطفال 1

يقال إن جهاز iPhone الخاص بك على وشك الحصول على أداة جديدة لمكافحة CSAM (مواد الاعتداء الجنسي على الأطفال) ، في ماسح ضوئي يبحث عن صور لإساءة معاملة الأطفال ويبلغك إذا عثر على أي تطابق. يمكن أن تكون أداة قوية لمحاربة الانتهاكات ، لكن خبراء الأمن يخشون من أنه يمكن بسهولة أن تلجأ إليها الحكومات الاستبدادية.

أنها المرة الأولى Apple قررت إدخال أداة مسح على مستوى النظام في iOS. هذه ليست المرة الوحيدة التي يتخذون فيها موقفًا ضد مواد الاعتداء الجنسي على الأطفال ، حيث تم سحب التطبيقات الفردية من متجر التطبيقات لمخاوف مماثلة.

من المفترض أن تكون الأداة بجانب العميل عند الإطلاق ، أي أن الاكتشاف يتم على iPhone أو iPad. ليس من السهل تخيل تدفق البيانات من الجهاز إلى خادم بعيد مع توسع الأداة ، مما قد يؤدي إلى بعض التداعيات الشائكة على الخصوصية. الأكثر فظاعة؟ إمكانية فحص الرسائل المرسلة من قبل عملاء الرسائل المشفرة من طرف إلى طرف مثل iMessage أو Telegram.

لقد حصلت على تأكيد مستقل من عدة أشخاص Apple تقوم بإصدار أداة من جانب العميل لفحص CSAM غدًا. انها فعلا فكرة سيئة.

– ماثيو جرين (matthew_d_green) 4 أغسطس 2021

يقول ماثيو جرين ، الأستاذ المشارك في معهد جونز هوبكنز لأمن المعلومات: “يمكن أن يكون هذا النوع من الأدوات مفيدًا للعثور على المواد الإباحية للأطفال في هواتف الناس”. “لكن تخيلوا ما يمكن أن تفعله في أيدي حكومة استبدادية؟” أثناء الربط بقصة حول كيفية العمل في الصين Apple اضطررت إلى اختراق بروتوكولات الأمان الخاصة بها.

المشكلة الأخرى هي أن تجزئة الصور التي تستخدمها الأداة ليست فريدة تمامًا. باستخدام الذكاء الاصطناعي ، من الممكن إنشاء صور أخرى من شأنها تشغيل الأداة ، لذلك قد يتم الخلط بين الصور الحميدة و CSAM.

يقول ان Apple لم تؤكد هذه الأداة الجديدة حتى الآن ، مع التأكيدات الوحيدة من مصادر ماثيو جرين.

قد يحتوي جهاز iPhone الخاص بك قريبًا على ميزة تقوم تلقائيًا بمسح صورك بحثًا عن إساءة معاملة الأطفال 2