Pourquoi Apple a-t-il reculé sur sa fonction de numérisation de photos ?

En août 2021, Apple a révélé son intention d'analyser les iPhones à la recherche d'images d'abus sexuels sur des enfants. Cette décision a suscité des applaudissements de la part des groupes de protection de l'enfance, mais a soulevé des inquiétudes parmi les experts en matière de confidentialité et de sécurité que la fonctionnalité pourrait être utilisée à mauvais escient.

Apple avait initialement prévu d'inclure la technologie de numérisation de matériel d'abus sexuels sur enfants (CSAM) dans iOS 15; il a plutôt retardé indéfiniment le déploiement de la fonctionnalité pour solliciter des commentaires avant sa sortie complète.

Alors pourquoi la fonction de détection CSAM est-elle devenue un sujet de débat houleux et qu'est-ce qui a poussé Apple à reporter son déploiement ?

À quoi sert la fonction de numérisation de photos d'Apple ?

Apple a annoncé la mise en œuvre de la fonction de numérisation de photos dans l'espoir de lutter contre les abus sexuels sur les enfants. Toutes les photos des appareils des utilisateurs Apple seront analysées à la recherche de contenu pédophile à l'aide de l'algorithme "NueralHash" créé par Apple.

De plus, tous les appareils Apple utilisés par des enfants auraient une fonction de sécurité qui brouillerait automatiquement les images d'adultes si elles étaient reçues par un enfant, et l'utilisateur serait averti deux fois s'il tentait de les ouvrir.

En plus de minimiser l'exposition au contenu pour adultes, si les parents enregistrent les appareils appartenant à leurs enfants pour plus de sécurité, les parents seraient avertis au cas où l'enfant recevrait un contenu explicite de quiconque en ligne.

Lire la suite : Ce que vous devez savoir sur les protections de sécurité pour les enfants d'Apple

Quant aux adultes utilisant Siri pour rechercher tout ce qui sexualise les enfants, Siri ne fera pas cette recherche et suggérera d'autres alternatives à la place.

Les données de tout appareil contenant 10 photos ou plus jugées suspectes par les algorithmes seront décryptées et soumises à un examen humain.

S'il s'avère que ces photos ou toute autre photo de l'appareil correspondent à quelque chose de la base de données fournie par le National Center for Missing and Exploited Children , cela sera signalé aux autorités et le compte de l'utilisateur sera suspendu.

Principales préoccupations concernant la fonction de numérisation de photos

La fonctionnalité de détection CSAM aurait été mise en service avec le lancement d'iOS 15 en septembre 2021, mais face au tollé généralisé, Apple a décidé de prendre plus de temps pour recueillir des commentaires et apporter des améliorations à cette fonctionnalité. Voici la déclaration complète d'Apple sur le retard :

« Le mois dernier, nous avons annoncé des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et à limiter la propagation du matériel d'abus sexuel d'enfants.

Sur la base des commentaires des clients, des groupes de défense des droits, des chercheurs et d'autres, nous avons décidé de prendre plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d'une importance cruciale".

Près de la moitié des préoccupations liées à la fonction de numérisation de photos d'Apple tournent autour de la confidentialité ; le reste des arguments comprend l'inexactitude probable des algorithmes et l'utilisation abusive potentielle du système ou de ses failles.

Décomposons-le en quatre parties.

Utilisation abusive potentielle

Savoir que tout matériel correspondant à de la pornographie enfantine ou à des images connues d'abus sexuels sur des enfants placera un appareil dans la liste « suspecte » peut mettre les cybercriminels en mouvement.

Ils peuvent intentionnellement bombarder une personne de contenu inapproprié via iMessage, WhatsApp ou tout autre moyen et faire suspendre le compte de cette personne.

Apple a assuré que les utilisateurs peuvent faire appel au cas où leurs comptes auraient été suspendus en raison d'un malentendu.

Abus d'initiés

Bien que conçue pour une cause bienveillante, cette fonctionnalité peut tourner au désastre total pour certaines personnes si leurs appareils sont enregistrés dans le système, à leur insu ou à leur insu, par des proches intéressés à surveiller leur communication.

Même si cela ne se produit pas, Apple a créé une porte dérobée pour rendre les données des utilisateurs accessibles à la fin de la journée. Maintenant, c'est une question de motivation et de détermination pour les gens d'accéder aux informations personnelles d'autres personnes.

Connexes : Qu'est-ce qu'une porte dérobée et à quoi sert-elle ?

Cela facilite non seulement une violation majeure de la vie privée, mais ouvre également la voie à des parents, tuteurs, amis, amants, gardiens et ex abusifs, toxiques ou contrôlants pour envahir davantage l'espace personnel de quelqu'un ou restreindre sa liberté.

D'une part, il est destiné à lutter contre les abus sexuels sur les enfants ; d'autre part, il peut être utilisé pour perpétuer davantage d'autres types d'abus.

Surveillance gouvernementale

Apple s'est toujours présenté comme une marque plus soucieuse de la confidentialité que ses concurrents. Mais maintenant, il pourrait entrer sur une pente glissante de devoir répondre aux exigences sans fin de transparence des données des utilisateurs par les gouvernements .

Le système qu'il a créé pour détecter les contenus pédophiles peut être utilisé pour détecter toute sorte de contenu sur les téléphones. Cela signifie que les gouvernements ayant une mentalité de secte peuvent surveiller les utilisateurs à un niveau plus personnel s'ils mettent la main dessus.

Oppressif ou non, l'implication du gouvernement dans votre vie quotidienne et personnelle peut être déconcertante et constitue une atteinte à votre vie privée. L'idée que vous n'avez besoin de vous inquiéter de telles invasions que si vous avez fait quelque chose de mal est une pensée erronée et ne parvient pas à voir la pente glissante susmentionnée.

Fausses alarmes

L'une des plus grandes préoccupations de l'utilisation d'algorithmes pour faire correspondre les images avec la base de données est les fausses alarmes. Les algorithmes de hachage peuvent identifier par erreur deux photos comme des correspondances même lorsqu'elles ne sont pas identiques. Ces erreurs, appelées « collisions », sont particulièrement alarmantes dans le contexte des contenus pédopornographiques.

Les chercheurs ont découvert plusieurs collisions dans "NeuralHash" après qu'Apple a annoncé qu'il utiliserait l'algorithme pour numériser les images. Apple a répondu aux questions sur les fausses alarmes en soulignant que le résultat sera examiné par un humain à la fin, de sorte que les gens n'ont pas à s'en soucier.

La pause CSAM d'Apple est-elle permanente ?

Il existe de nombreux avantages et inconvénients de la fonctionnalité proposée par Apple. Chacun d'eux est authentique et a du poids. On ne sait toujours pas quels changements spécifiques Apple pourrait introduire dans la fonction de numérisation CSAM pour satisfaire ses critiques.

Cela pourrait limiter la numérisation aux albums iCloud partagés au lieu d'impliquer les appareils des utilisateurs. Il est très peu probable qu'Apple abandonne complètement ces plans, car la société n'est généralement pas encline à céder à ses plans.

Cependant, il ressort clairement du contrecoup généralisé et du retard d'Apple sur ses plans, que les entreprises devraient intégrer la communauté de la recherche dès le début, en particulier pour une technologie non testée.