Apple supprime la plupart des mentions de fonctionnalités CSAM controversées après la mise à jour iOS 15.2

Apple a publié cette semaine iOS 15.2 avec une multitude de nouvelles fonctionnalités, notamment une fonction de sécurité des communications pour l'application Messages axée sur la protection des enfants. Cependant, la société n'a pas inclus sa fonction controversée de numérisation de matériel d'abus sexuel sur des enfants iCloud Photos et semble avoir effacé toute mention de son existence.

En guise de récapitulatif, iOS 15.2 était à l'origine destiné à être doté d'une fonction de détection de matériel pédopornographique (CSAM). La mise à jour aurait implémenté une fonction de numérisation sur l'appareil visant à parcourir la bibliothèque de photos iCloud d'un utilisateur pour le matériel CSAM. La société a indiqué qu'elle le ferait sur l'appareil, pour une confidentialité maximale. Des experts en protection de la vie privée se sont opposés , notant que le concept même de scanner la photothèque d'un utilisateur à la recherche de matériel interdit était en soi une violation de la vie privée, qui pourrait s'étendre pour inclure d'autres documents une fois le précédent établi.

Trois écrans illustrant le glisser-déposer d'images de Safari vers l'application Photos sur un iPhone.
Jesse Hollington / Tendances numériques

« Auparavant, nous avions annoncé des plans pour des fonctionnalités destinées à aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter et à aider à limiter la propagation du matériel d'abus sexuel d'enfants. Sur la base des commentaires des clients, des groupes de défense des droits, des chercheurs et d'autres, nous avons décidé de prendre du temps supplémentaire au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité des enfants d'une importance cruciale », a déclaré Apple dans une note qu'il a précédemment ajoutée à sa page d'origine sur la sécurité des enfants .

Comme repéré par MacRumors , la société a depuis supprimé ce segment de la page et toute mention de la fonction de numérisation de photos iCloud. Nous avons contacté Apple pour obtenir des éclaircissements sur ce point.

Apple a également apporté de légères modifications à la sécurité des communications dans sa fonction Messages. Plutôt que d'informer automatiquement les parents si un enfant de moins de 18 ans choisit de visualiser ou d'envoyer une image nue via l'application Messages, la société a désormais retiré l'exigence de notification en réponse aux commentaires des experts.

Au lieu de cela, toutes les personnes de moins de 18 ans seront désormais averties que l'image pourrait contenir du matériel sensible et recevront une explication de ce que sont les photos sensibles et de la manière dont elles pourraient être utilisées pour causer des dommages, plutôt que de spécifier la nature de la photo explicite elle-même.