Blogs pour les Nouvelles Techniques, les Mobiles, les Jeux et les Critiques

Apple analysera apparemment votre iPhone à la recherche d’images d’abus d’enfants »

Apple scannera apparemment votre iPhone à la recherche d'images d'abus d'enfantsChikena/Shutterstock.com

Selon des rapports crédibles, Apple prévoit de commencer à installer un logiciel sur les iPhones aux États-Unis qui analysera automatiquement les photos locales à la recherche d’images d’abus d’enfants. Apple ne numériserait que les photos téléchargées sur iCloud à l’aide de cette technologie, du moins au début.

Mettre à jour: Apple a confirmé une grande partie de ces informations dans un long document.

Qu’est-ce qu’Apple Tun ?

Les rapports sur les plans d’Apple proviennent du Financial Times et du professeur Matthew Green de l’Université Johns Hopkins, deux sources généralement fiables. Bien sûr, jusqu’à ce qu’Apple confirme que c’est le cas, il y a toujours une chance que ce ne soit pas le cas. Apple aurait démontré le plan à certains universitaires américains plus tôt cette semaine.

Selon les rapports, Apple utilisera un système appelé “neuralMatch” pour scanner les iPhones américains à la recherche d’images d’abus d’enfants.

Essentiellement, un système automatisé alerterait une équipe d’examinateurs humains s’il pensait que des images illégales avaient été découvertes. À partir de là, un membre de l’équipe examinerait les images et contacterait les forces de l’ordre.

Techniquement, ce n’est pas nouveau – les systèmes de stockage de photos basés sur le cloud et les réseaux sociaux effectuent déjà ce type de numérisation. La différence ici est qu’Apple le fait au niveau de l’appareil. Selon Matthew Green, il ne numérise initialement que les photos téléchargées sur iCloud, mais il effectuera cette numérisation sur le téléphone de l’utilisateur. “Premier” est le mot clé ici, car vous pouvez l’utiliser pour numériser toutes les photos localement à un moment donné.

Ceci est destiné à rendre le système moins invasif, car la numérisation est effectuée sur le téléphone et renvoyée uniquement s’il y a une correspondance, ce qui signifie que toutes les photos téléchargées ne sont pas exposées aux yeux des étrangers.

Chaque photo téléchargée sur iCloud reçoit un “bon de sécurité” indiquant si elle est suspecte ou non, selon les participants. Si un certain nombre d’images sont signalées comme suspectes, Apple les décryptera et les enverra aux autorités si quelque chose lié à la maltraitance des enfants est trouvé.

Comment le système fera-t-il la distinction entre les images d’abus d’enfants et les autres images ? Selon le rapport, il a été testé sur 200 000 images d’abus sexuels collectées par le Centre national américain à but non lucratif pour les enfants disparus et exploités.

Les images sont hachées en une séquence de nombres, puis comparées aux images de la base de données.

Après que tout soit sorti, Apple a refusé de commenter les événements au Financial Times. Cependant, nous nous attendons à ce que la société travaille sur une déclaration officielle avant que la nouvelle du déménagement ne devienne incontrôlable.

Cela crée un dangereux précédent

Nous n’avons probablement pas besoin de vous dire à quel point cela peut être effrayant. Les personnes qui maltraitent les enfants devraient être arrêtées et punies, mais il est facile de voir comment quelque chose comme ça pourrait être utilisé à des fins beaucoup plus invasives.

Une technologie similaire sera-t-elle déployée sur d’autres plates-formes comme les Mac ? PC Windows et téléphones Android ? Des pays comme la Chine pourraient-ils l’utiliser pour détecter des images subversives sur les téléphones portables de leurs citoyens ? S’il est largement accepté, l’industrie du droit d’auteur pourrait-elle l’utiliser pour rechercher du contenu piraté dans quelques années ?

Et même si cela fonctionne comme annoncé, des innocents sont-ils pris entre deux feux ?

Espérons que ce n’est pas aussi inquiétant qu’il n’y paraît.