Qu’est-ce que PhotoDNA et comment ça marche ?

Internet a rendu beaucoup de choses plus faciles, que ce soit pour rester en contact avec ses amis et sa famille, trouver un emploi et même travailler à distance. Les avantages de ce système d'ordinateurs connectés sont immenses, mais il y a aussi un inconvénient.

Contrairement aux États-nations, Internet est un réseau mondial qu'aucun gouvernement ou autorité ne peut contrôler. Par conséquent, du matériel illégal se retrouve en ligne, et il est incroyablement difficile d'empêcher les enfants de souffrir et d'attraper les responsables.

Cependant, une technologie co-développée par Microsoft appelée PhotoDNA est une étape vers la création d'un espace en ligne plus sûr pour les enfants et les adultes.

Qu'est-ce que PhotoDNA ?

PhotoDNA est un outil d'identification d'images, développé pour la première fois en 2009. Bien qu'il s'agisse principalement d'un service soutenu par Microsoft, il a été co-développé par le professeur Hany Farid du Dartmouth College, un expert en analyse de photos numériques. Le but de PhotoDNA est d'identifier les images illégales, y compris le matériel pédopornographique, communément appelé CSAM.

À mesure que les smartphones, les appareils photo numériques et l'Internet haut débit sont devenus de plus en plus courants, la quantité de CSAM trouvée en ligne s'est également multipliée. Dans le but d'identifier et de supprimer ces images, ainsi que d'autres contenus illégaux, la base de données PhotoDNA contient des millions d'entrées pour des images connues d'abus.

Microsoft exploite le système et la base de données est gérée par le National Center for Missing & Exploited Children (NCMEC) basé aux États-Unis, une organisation dédiée à la prévention de la maltraitance des enfants. Les images sont acheminées vers la base de données une fois qu'elles ont été signalées au NCMEC.

Bien que n'étant pas le seul service à rechercher des CSAM connus, PhotoDNA est l'une des méthodes les plus courantes, y compris de nombreux services numériques comme Reddit, Twitter et la plupart des produits appartenant à Google.

PhotoDNA devait être physiquement installé sur site au début, mais Microsoft exploite désormais le service PhotoDNA Cloud basé sur le cloud. Cela permet aux petites organisations sans vaste infrastructure d'entreprendre la détection CSAM.

Comment fonctionne PhotoDNA ?

Lorsque les internautes ou les forces de l'ordre tombent sur des images d'abus, elles sont signalées au NCMEC via le CyberTipline . Ceux-ci sont catalogués et les informations sont partagées avec les forces de l'ordre si ce n'était pas déjà le cas. Les images sont téléchargées sur PhotoDNA, qui crée ensuite un hachage ou une signature numérique pour chaque image individuelle.

Pour atteindre cette valeur unique, la photo est convertie en noir et blanc, divisée en carrés, et le logiciel analyse l'ombrage résultant. Le hachage unique est ajouté à la base de données de PhotoDNA, partagé entre les installations physiques et le Cloud PhotoDNA.

Les fournisseurs de logiciels, les forces de l'ordre et d'autres organisations de confiance peuvent implémenter la numérisation PhotoDNA dans leurs produits, logiciels cloud ou autres supports de stockage. Le système scanne chaque image, la convertit en une valeur de hachage et la compare aux hachages de la base de données CSAM.

Si une correspondance est trouvée, l'organisation responsable est alertée et les détails sont transmis aux forces de l'ordre pour poursuites. Les images sont supprimées du service et le compte de l'utilisateur est résilié.

Surtout, aucune information sur vos photos n'est stockée, le service est entièrement automatisé sans intervention humaine et vous ne pouvez pas recréer une image à partir d'une valeur de hachage.

Depuis 2015, les organisations peuvent également utiliser PhotoDNA pour analyser des vidéos.

En août 2021, Apple a rompu avec la plupart des autres grandes entreprises technologiques et a annoncé qu'elles utiliseraient leur propre service pour analyser les iPhones des utilisateurs pour CSAM .

Naturellement, ces plans ont reçu un contrecoup considérable pour avoir semblé violer la position de l'entreprise en matière de protection de la vie privée, et de nombreuses personnes craignaient que l'analyse n'inclue progressivement des non-CSAM, conduisant finalement à une porte dérobée pour les forces de l'ordre.

PhotoDNA utilise-t-il la reconnaissance faciale ?

De nos jours, nous connaissons assez bien les algorithmes. Ces instructions codées nous montrent des publications pertinentes et intéressantes sur nos flux de médias sociaux, prennent en charge les systèmes de reconnaissance faciale et décident même si on nous propose un entretien d'embauche ou si nous allons à l'université.

Vous pourriez penser que les algorithmes seraient au cœur de PhotoDNA, mais automatiser la détection d'images de cette manière serait très problématique. Par exemple, ce serait incroyablement invasif, violerait notre vie privée, sans parler du fait que les algorithmes ne sont pas toujours bons.

Google, par exemple, a eu des problèmes bien documentés avec son logiciel de reconnaissance faciale. Lorsque Google Photos a été lancé pour la première fois, il a catégorisé de manière offensive les Noirs comme des gorilles. En mars 2017, un comité de surveillance de la Chambre a appris que certains algorithmes de reconnaissance faciale étaient erronés 15 % du temps et plus susceptibles de mal identifier les Noirs.

Ces types d'algorithmes d'apprentissage automatique sont de plus en plus courants, mais peuvent être difficiles à surveiller de manière appropriée. En effet, le logiciel prend ses propres décisions et vous devez inverser la façon dont il est arrivé à un résultat spécifique.

Naturellement, étant donné le type de contenu recherché par PhotoDNA, l'effet d'une erreur d'identification pourrait être catastrophique. Heureusement, le système ne repose pas sur la reconnaissance faciale et ne peut trouver que des images pré-identifiées avec un hachage connu.

Facebook utilise-t-il PhotoDNA ?

En tant que propriétaire et opérateur des réseaux sociaux les plus importants et les plus populaires au monde, Facebook traite chaque jour de nombreux contenus générés par les utilisateurs. Bien qu'il soit difficile de trouver des estimations fiables et actuelles, une analyse en 2013 a suggéré que quelque 350 millions d'images sont téléchargées sur Facebook chaque jour.

Ce sera probablement beaucoup plus élevé maintenant, car de plus en plus de personnes ont rejoint le service, la société exploite plusieurs réseaux (y compris Instagram et WhatsApp) et nous avons un accès plus facile aux caméras des smartphones et à une connexion Internet fiable. Compte tenu de son rôle dans la société, Facebook doit réduire et supprimer les CSAM et autres contenus illégaux.

Heureusement, la société a résolu ce problème dès le début, en optant pour le service PhotoDNA de Microsoft en 2011. Depuis l'annonce il y a plus de dix ans, il y a eu peu de données sur son efficacité. Cependant, 91% de tous les rapports de CSAM en 2018 provenaient de Facebook et Facebook Messenger.

PhotoDNA rend-il Internet plus sûr ?

Le service développé par Microsoft est sans aucun doute un outil essentiel. PhotoDNA joue un rôle crucial dans la prévention de la propagation de ces images et peut même aider à aider les enfants à risque.

Cependant, le principal défaut du système est qu'il ne peut rechercher que des images pré-identifiées. Si PhotoDNA n'a pas de hachage stocké, il ne peut pas identifier les images abusives.

Il est plus facile que jamais de prendre et de télécharger des images d'abus en haute résolution en ligne, et les agresseurs se tournent de plus en plus vers des plateformes plus sécurisées comme le Dark Web et les applications de messagerie cryptées pour partager le matériel illégal. Si vous n'avez jamais rencontré le Dark Web auparavant, cela vaut la peine de lire sur les risques associés à la face cachée d'Internet.