Principaux dangers des Deepfakes et comment les repérer
Dans un monde où votre identité en ligne vous relie directement, la perspective d'une réplication parfaite est inquiétante. Mais c'est exactement ce à quoi nous sommes confrontés avec l'avènement de la technologie deepfake.
Alors que la technologie devient moins chère et plus facile à utiliser, quels sont les dangers des deepfakes? De plus, comment pouvez-vous repérer un deepfake par rapport à la vraie affaire?
Qu'est-ce qu'un Deepfake?
Un deepfake est le nom donné aux médias où une personne dans la vidéo ou l'image est remplacée par la ressemblance de quelqu'un d'autre. Le terme est un portemanteau de «deep learning» et de «faux» et utilise des algorithmes d'apprentissage automatique et l'intelligence artificielle pour créer des médias réalistes mais synthétiques.
Dans sa forme la plus élémentaire, vous pourriez trouver un visage superposé à un autre modèle. À son pire développement rapide, la technologie deepfake transforme des victimes sans méfiance dans de fausses vidéos pornographiques, de fausses nouvelles, des canulars, etc.
Vous pouvez en savoir plus sur les origines de la technologie dans notre explicatif deepfake .
Quels sont les dangers des Deepfakes?
Les fausses images ont toujours existé. Comprendre ce qui est faux et ce qui ne l'est pas fait partie de la vie, surtout après l'essor des médias numérisés. Mais les problèmes que crée la technologie deepfake sont différents, apportant une précision inégalée aux fausses images et aux fausses vidéos.
L'une des premières vidéos deepfake à toucher un public plus large a été Jordan Peele qui s'est fait passer pour Barack Obama dans une vidéo discutant du problème même:
La vidéo semble brute, avec une voix étrange et des artefacts granuleux sur le visage cloné. Néanmoins, il illustre la technologie deepfake.
Ou vous êtes-vous déjà demandé ce que cela aurait été si Will Smith jouait Neo dans The Matrix au lieu de Keanu Reeves (je veux dire, qui ne l'a pas fait?!)? Ne me demande plus:
Ces deux vidéos ne sont pas malveillantes et nécessitent des centaines d'heures d'apprentissage automatique pour être compilées. Mais la même technologie est disponible pour quiconque dispose de suffisamment de temps pour apprendre et de la puissance de calcul nécessaire. La barrière à l'utilisation de la technologie deepfake était assez élevée au départ. Mais à mesure que la technologie s'améliore et que les barrières à l'entrée diminuent considérablement, les gens trouvent des utilisations négatives et nocives pour les deepfakes.
Avant de plonger dans le côté obscur des deepfakes, voici Jim Carrey qui remplace Jack Nicholson dans The Shining:
1. Faux matériel pour adultes mettant en vedette des célébrités
L'une des principales menaces de la technologie deepfake est le matériel synthétique pour adultes, ou deepfake porn comme on l'appelle. Il existe des dizaines de milliers de fausses vidéos pour adultes présentant les visages de célébrités féminines de premier plan, telles qu'Emma Watson, Natalie Portman et Taylor Swift.
Tous utilisent des algorithmes d'apprentissage automatique deepfake pour assembler le visage de la célébrité sur le corps d'une actrice adulte, et tous attirent des dizaines de millions de vues sur les nombreux sites Web de contenu pour adultes.
Pourtant, aucun de ces sites ne fait quoi que ce soit contre les deepfakes de célébrités.
«Tant qu'il n'y aura pas une bonne raison pour eux d'essayer de les éliminer et de les filtrer, rien ne se passera», déclare Giorgio Patrini, PDG et scientifique en chef de Sensity, une société de détection et d'analyse de deepfake. "Les gens seront toujours libres de télécharger ce type de matériel sans aucune conséquence sur ces sites Web qui sont consultés par des centaines de millions de personnes."
Les vidéos sont exploitantes et loin d'être exemptes de victimes, comme le prétendent certains créateurs de deepfake.
2. Faux matériel pour adultes mettant en vedette des personnes ordinaires
Quoi de pire que le porno synthétique mettant en vedette des célébrités? C'est vrai: du faux matériel pour adultes mettant en vedette des femmes sans méfiance. Une étude de Sensity a découvert un bot deepfake sur l'application de messagerie sociale, Telegram, qui avait créé plus de 100000 images nues deepfake. De nombreuses images sont volées sur des comptes de réseaux sociaux, mettant en vedette des amis, des copines, des épouses, des mères, etc.
Le bot est une avancée majeure dans la technologie deepfake, car le téléchargeur d'images n'a pas besoin de connaissances existantes sur les deepfakes, l'apprentissage automatique ou l'IA. C'est un processus automatisé qui nécessite une seule image. De plus, le bot Telegram semble ne fonctionner qu'avec des images de femmes, et les abonnements premium (plus d'images, filigrane supprimé) sont ridiculement bon marché.
Quel est le son d'un administrateur de faux robots nus supprimant un chat entier pic.twitter.com/F48SEg9oMM
– Drew Harwell (@drewharwell) 20 octobre 2020
Comme les deepfakes de célébrités, les images deepfake du bot Telegram sont exploitantes, abusives et amorales. Ils pourraient facilement trouver leur chemin vers la boîte de réception d'un mari, d'un partenaire, d'un membre de la famille, d'un collègue ou d'un patron, détruisant ainsi des vies. Le potentiel de chantage et d'autres formes d'extorsion est très élevé et augmente la menace des problèmes existants, tels que la vengeance pornographique.
Publier les deepfakes sur Telegram crée également un autre problème. Telegram est un service de messagerie axé sur la confidentialité qui n'interfère pas trop avec ses utilisateurs. Il a une politique de suppression des bots pornos et autres bots liés au matériel pour adultes, mais n'a rien fait dans ce cas.
3. Matériel de canular
Vous avez vu Jordan Peele jouer Obama. Dans cette vidéo, il met en garde contre les dangers des deepfakes. L'une des principales préoccupations concernant la technologie deepfake est que quelqu'un va créer et publier une vidéo si réaliste qu'elle mène à une tragédie sous une forme ou une autre.
À l'extrémité la plus extrême de l'échelle, les gens disent que le contenu vidéo deepfake pourrait déclencher une guerre. Mais il y a aussi d'autres conséquences majeures. Par exemple, une vidéo deepfake mettant en scène une grande société ou un PDG de banque faisant une déclaration préjudiciable pourrait déclencher un krach boursier. Encore une fois, c'est extrême. Mais de vraies personnes peuvent vérifier et vérifier une vidéo, alors que les marchés mondiaux réagissent instantanément aux nouvelles et que des ventes automatisées se produisent.
L'autre chose à considérer est le volume. Le contenu deepfake devenant de plus en plus bon marché à créer, cela soulève la possibilité d'énormes quantités de contenu deepfake de la même personne, en se concentrant sur la diffusion du même faux message dans des tons, des lieux, des styles différents, etc.
4. Refuser du matériel réel
En tant qu'extension du matériel de canular, vous devez considérer que les deepfakes deviendront incroyablement réalistes. À tel point que les gens commenceront à se demander si une vidéo est réelle ou non, quel que soit le contenu.
Si quelqu'un commet un crime et que la seule preuve est la vidéo, qu'est-ce qui l'empêche de dire: «C'est un deepfake, c'est de fausses preuves»? Inversement, qu'en est-il de planter des preuves vidéo deepfake que quelqu'un peut trouver?
5. Faux leaders d'opinion et contacts sociaux
Il y a déjà eu plusieurs cas impliquant du contenu deepfake se faisant passer pour des leaders d'opinion. Les profils sur LinkedIn et Twitter détaillent les rôles de haut niveau dans les organisations stratégiques, mais ces personnes n'existent pas et sont probablement générées à l'aide de la technologie deepfake.
Cela dit, ce n'est pas un problème spécifique au deepfake. Depuis la nuit des temps, les gouvernements, les réseaux d'espionnage et les entreprises ont utilisé de faux profils et personnalités pour collecter des informations, promouvoir des programmes et manipuler .
6. Escroqueries par hameçonnage, ingénierie sociale et autres escroqueries
L'ingénierie sociale est déjà un problème en matière de sécurité. Les gens veulent faire confiance aux autres. C'est dans notre nature. Mais cette confiance peut conduire à des failles de sécurité, au vol de données, etc. L'ingénierie sociale nécessite souvent un contact personnel, que ce soit par téléphone, via un appel vidéo, etc.
Supposons que quelqu'un puisse utiliser la technologie deepfake pour imiter un directeur afin d'accéder à des codes de sécurité ou à d'autres informations sensibles. Dans ce cas, cela pourrait conduire à un déluge d'escroqueries deepfake.
Comment repérer et détecter les Deepfakes
La qualité des deepfakes augmentant, il est important de trouver un deepfake. Dans les premiers jours, il y avait des indices simples: des images floues, des corruptions et des artefacts vidéo, et d'autres imperfections. Cependant, ces problèmes révélateurs diminuent tandis que le coût d'utilisation de la technologie diminue rapidement.
Il n'y a pas de moyen parfait de détecter le contenu deepfake, mais voici quatre conseils pratiques:
- Détails . Aussi bonne que soit la technologie deepfake, il y a encore des éléments avec lesquels elle se débat. En particulier, les détails fins dans les vidéos, tels que les mouvements des cheveux, les mouvements des yeux, les structures des joues et les mouvements pendant la parole, et les expressions faciales non naturelles. Le mouvement des yeux est un grand révélateur. Bien que les deepfakes puissent maintenant clignoter efficacement (dans les premiers jours, c'était un révélateur majeur), le mouvement des yeux est toujours un problème.
- L'émotion . Lier aux détails est une émotion. Si quelqu'un fait une déclaration forte, son visage affichera une gamme d'émotions en livrant les détails. Deepfakes ne peut pas offrir la même profondeur d'émotion qu'une personne réelle.
- Incohérence . La qualité vidéo est à un niveau record. Le smartphone dans votre poche peut enregistrer et transmettre en 4K. Si un dirigeant politique fait une déclaration, c'est devant une salle remplie de matériel d'enregistrement de haut niveau. Par conséquent, une mauvaise qualité d'enregistrement, à la fois visuelle et audible, est une incohérence notable.
- Source . La vidéo apparaît-elle sur une plateforme vérifiée? Les plateformes de médias sociaux utilisent la vérification pour s'assurer que les personnes mondialement reconnaissables ne sont pas imitées. Bien sûr, il y a des problèmes avec les systèmes. Mais vérifier où une vidéo particulièrement flagrante est diffusée ou hébergée vous aidera à déterminer si elle est réelle ou non. Vous pouvez également essayer d'effectuer une recherche d'image inversée pour révéler d'autres emplacements où l'image se trouve sur Internet.
Outils pour repérer et prévenir les deepfakes
Vous n'êtes pas seul dans la lutte contre la détection de deepfakes. Plusieurs grandes entreprises technologiques développent des outils pour la détection des deepfakes, tandis que d'autres plates-formes prennent des mesures pour bloquer définitivement les deepfakes.
Par exemple, l'outil de détection de deepfake de Microsoft, Microsoft Video Authenticator , analysera en quelques secondes, informant l'utilisateur de son authenticité (consultez le GIF ci-dessous pour un exemple). Dans le même temps, Adobe vous permet de signer numériquement le contenu pour le protéger de toute manipulation.
Des plates-formes comme Facebook et Twitter ont déjà interdit les deepfakes malveillants (les deepfakes comme Will Smith dans The Matrix sont toujours un jeu équitable), tandis que Google travaille sur un outil d'analyse de la synthèse vocale pour contrer les faux extraits audio.
Si vous souhaitez rafraîchir vos compétences en matière de détection de faux médias, consultez notre liste de faux tests de détection pour repérer et apprendre .
Les Deepfakes arrivent – et ils s'améliorent
La vérité est que, depuis que les deepfakes ont atteint le grand public en 2018, leur utilisation principale est d'abuser des femmes. Qu'il s'agisse de créer du faux porno en utilisant un visage de célébrité ou de déshabiller quelqu'un sur les réseaux sociaux, tout se concentre sur l'exploitation, la manipulation et la dégradation des femmes du monde entier.
Il ne fait aucun doute qu'une insurrection de deepfakes se profile à l'horizon. La montée en puissance d'une telle technologie représente un danger pour le public, mais il y a peu de recours pour arrêter sa marche en avant.