Inquiet de l’avertissement deepfake du FBI ? Suivez ces conseils d’experts

Rendu IA d'un mauvais acteur en ligne
Crédit : Générateur d'images Bing

La semaine dernière, le Federal Bureau of Investigation (FBI) a publié une annonce d'intérêt public sur l'augmentation du contenu explicite deepfake et sur la manière dont il est utilisé pour des crimes tels que l'extorsion, le chantage et le harcèlement. Dans les termes les plus simples, un deepfake est un matériel multimédia synthétique essayant d'imiter un original . Il peut s'agir d'une photo, d'une vidéo ou d'un clip audio de génération AI.

Le nom « deepfake » vient de la technologie inhérente utilisée pour créer de tels médias – l'apprentissage en profondeur – qui consiste à former un modèle d'IA à l'aide de matériel original, puis à le modifier pour générer les résultats souhaités. Ce n'est pas exactement une nouvelle invention, mais avec l'IA générative qui explose en popularité – et en accès – les crimes contrefaits sont en augmentation.

Leur popularité est telle que même la campagne du candidat républicain à la présidentielle Ron DeSantis a utilisé des images deepfake de son rival Donald Trump pour le calomnier. Les deepfakes sont également l'une des raisons pour lesquelles les appels à la réglementation de l'IA sont soulevés partout. Selon le FBI, le contenu pour générer des deepfakes est généralement extrait des publications sur les réseaux sociaux et des clips d'appels vidéo avant d'être modifié en matériel sexuellement explicite pour l'extorsion et l'intimidation.

Ce que les experts disent des deepfakes

Rendu IA d'une personne prenant en photo un utilisateur de smartphone
Crédit : Générateur d'images Bing

Alors, quelle est la solution ? Malheureusement, il n'y a pas de solution. Du moins, non sans faire un compromis – un compromis qui renverse fondamentalement tout le sens des « réseaux sociaux ».

"Malheureusement, la seule façon d'être sûr qu'aucune de vos photos ou vidéos ne soit utilisée pour créer des deep fakes est d'arrêter de publier des photos de vous en ligne, mais cela prendrait beaucoup de plaisir aux internautes", déclare Adrianus Warmenhoven, un conseiller en cybersécurité chez Nord .

« À mesure que de nouvelles et meilleures pratiques de sécurité émergent, les acteurs malveillants trouveront un moyen de causer des dommages. C'est un jeu de rattrapage et parfois décevant », déclare Parteek Saran, un ancien Googleur et créateur d'un outil de gestion de mots de passe de nouvelle génération appelé Uno . Il suggère en outre d'essayer d'adopter une «philosophie de confiance zéro» lorsqu'il s'agit de publier du contenu sur les réseaux sociaux et met l'accent sur une communication efficace avec des connaissances pour éviter les escroqueries profondes.

"Bien que l'IA puisse aider à résoudre les problèmes de sécurité numérique, il n'existe pas de filet de sécurité infaillible", déclare Yaron Litwin, expert en sécurité numérique et CMO chez Canopy . L'application éponyme de la société vise à protéger les enfants contre les crimes sexuels en ligne et propose également un ensemble diversifié de contrôles parentaux. Litwin ajoute que vous devez éviter de publier des images intimes ou compromettantes tout en réduisant la fréquence de publication des images, même normales.

Comment vous pouvez vous protéger

Rendu IA d'un mauvais acteur espionnant une autre personne
Crédit : Générateur d'images Bing

Les deepfakes sont terrifiants et il est difficile d'imaginer le traumatisme qu'ils peuvent infliger à une personne et aux membres de sa famille. Mais il existe plusieurs façons pour les utilisateurs d'éviter de tomber dans le piège, ou du moins de s'en éloigner dans une large mesure.

Pour comprendre les étapes que peuvent suivre les utilisateurs moyens de smartphones dotés de compétences numériques typiques, j'ai contacté Andrew Gardner, vice-président de la recherche et de l'innovation chez Gen Digital , une société de logiciels qui propose des outils de sécurité fiables tels que Norton, Avast et Avira, entre autres.

Gardner dit que les protocoles de sécurité commencent au niveau fondamental. Les utilisateurs doivent commencer par rendre leurs profils privés – ou au moins modifier les paramètres de visibilité des publications afin que seules les personnes qu'ils suivent mutuellement puissent voir et interagir avec leurs publications. Les contrôles parentaux , qui sont désormais disponibles pour presque toutes les principales plateformes de médias sociaux, doivent être activés avec diligence afin que les tuteurs puissent garder un œil sur toute interaction suspecte.

C'est un avocat général que l'on ne devrait accepter que les demandes de personnes qu'ils connaissent, mais faire un pas supplémentaire peut aller très loin. "Si vous êtes en réseau, vérifiez les publications et les activités récentes des invités pour évaluer leur réalité", explique Gardner, ajoutant qu'il faut se méfier des "comptes avec peu d'amis ou d'amis communs". Un autre conseil crucial que l'exécutif de Gen Digital doit donner est de vérifier et de restreindre les connexions aux réseaux sociaux.

Rendu IA d'une personne masquée espionnant une autre personne
Crédit : Générateur d'images Bing

Les utilisateurs visitent souvent les services en ligne et, pour éviter les tracas liés à la création d'un compte, ils optent pour l'option de connexion aux réseaux sociaux. "Cela permet aux applications d'accéder à des informations personnelles et, dans certaines situations, ces applications vendent ces informations à des tiers", explique-t-il. Le scandale de Cambridge Analytica impliquant Facebook en est un excellent exemple. Il convient de vérifier périodiquement quelles applications sont connectées à leurs comptes de médias sociaux et, sauf si nécessaire, leur accès doit être révoqué.

Les deepfakes sont des crimes sophistiqués alimentés par l'IA, mais Gardner suggère que les utilisateurs doivent toujours respecter certaines consignes de sécurité de base, telles que l'activation de l'authentification à deux facteurs, l'utilisation de mots de passe forts, l'activation de clés d'accès biométriques et l'évitement de tout lien suspect ou inconnu.

Les médias sociaux utilisés de manière sûre et responsable

Rendu par IA de personnes cliquant sur des selfies.
Crédit : Générateur d'images Bing

Litwin de Canopy est d'avis que plus vous partagez, plus il devient facile de créer des deepfakes convaincants. Il n'y a pas de pénurie de modèles de génération d'images d'IA louches sans aucune restriction sur la création de matériel explicite. Ces outils s'appuient sur des entrées d'image pour former le modèle. Plus il reçoit de données d'entraînement, plus les deepfakes deviennent précis et réalistes.

C'est la tactique standard mise en œuvre par les générateurs d'images d'IA grand public comme MidJourney . Si votre flux social est ouvert et contient une grande quantité de photos et de vidéos, rien n'empêche un mauvais acteur de les gratter pour créer des deepfakes compromettants. Mais si vous faites partie des personnes qui voient la valeur des médias sociaux comme un lieu de conservation de vos souvenirs les plus précieux, vous devez prendre quelques mesures.

Utilisation de l'application Twitter sur le Xiaomi 13 Pro.
Andy Boxall/Tendances numériques

"Soyez prudent quant aux informations personnelles que vous partagez en ligne, ajustez les paramètres de confidentialité de vos comptes, activez l'authentification à deux facteurs et examinez attentivement les images pour détecter toute imperfection", note Boyd Clewis , expert en cybersécurité du Forbes Security Council et auteur de "Through Le pare-feu : l'alchimie de la transformation de la crise en opportunité. »

Mais comment repérer de manière fiable un profil de réseau social qui a probablement un mauvais acteur derrière lui engagé dans des actes louches comme la création et la diffusion de deepfakes ? "Si du matériel vidéo ou audio est partagé à partir de profils suspects et que les comptes ne contiennent aucune information personnelle ou photo, il est probable que le profil soit faux", suggère Tomas Samulis, architecte de la sécurité des informations chez Baltic Amadeus. Il suggère que de tels profils dépourvus d'informations personnellement identifiables soient spécifiquement créés pour diffuser des contrefaçons et d'autres informations controversées.

Que faire si vous êtes deepfake

Rendu IA d'une personne masquée utilisant un téléphone
Crédit : Générateur d'images Bing

Mais il n'y a pas beaucoup de précautions qu'un utilisateur moyen de smartphone peut prendre. Même les utilisateurs les plus avertis du numérique se retrouvent du côté des cybercrimes, même après avoir utilisé tous les outils standard tels que l'authentification à deux facteurs, les profils privés et les pare-feu biométriques.

Si, malgré toutes les précautions prises, vous vous retrouvez toujours au centre d'un crime contrefait, demandez l'avis d'un expert et l'aide des autorités au lieu de prendre les choses en main. Les experts notent que s'asseoir sur un tel harcèlement ou essayer de le gérer discrètement par eux-mêmes aggrave souvent la situation des victimes.

"Si vous découvrez que quelqu'un utilise votre contenu à mauvais escient, demandez à un avocat connaissant bien la loi sur le droit d'auteur de vous aider à supprimer le contenu le plus rapidement possible", déclare Rob Scott, membre de l'association du barreau de Dallas et expert juridique agréé dans des domaines tels que la cybersécurité. risques et confidentialité des données.

La consultation d'un expert juridique est cruciale car elle peut vous guider dans vos droits numériques, Canopy's Litwin suggère également de conserver toutes les preuves, conseillant aux victimes de "documenter toute preuve des tentatives d'extorsion, telles que des messages, des e-mails ou toute forme de communication liée à l'extorsion.

Un autre conseil crucial est que la victime doit immédiatement cesser tout contact avec un criminel, car le criminel peut encore la manipuler ou la harceler avec des demandes d'extorsion plus sérieuses. Dans le même temps, les utilisateurs doivent contacter un expert en cybersécurité ou composer l'une des lignes d'assistance téléphonique du gouvernement contre la cybercriminalité pour prendre les bonnes mesures à temps.

Comment repérer les deepfakes

Rendu IA d'un visage humain
Crédit : Générateur d'images Bing

Les moteurs d'intelligence artificielle devenant de plus en plus sophistiqués, le type de deepfakes qu'ils produisent devient étrangement réel et difficile à repérer. Cependant, il existe encore quelques marqueurs auxquels les utilisateurs peuvent prêter attention afin de repérer les éléments compromettants modifiés synthétiquement ou générés par l'IA.

Voici une compilation d'identifiants deepfake que les experts ont à offrir :

  • Faites attention aux mouvements oculaires non naturels. Si les yeux d'une personne ne semblent pas clignoter, si le mouvement des yeux est désactivé ou si les expressions faciales ne semblent pas être synchronisées avec les mots qu'elle prononce, il s'agit très probablement d'un clip deepfake. Un manque d'émotions, ou des émotions incohérentes, est un signe révélateur que les médias ont été transformés numériquement.
  • "La technologie Deepfake se concentre généralement sur les traits du visage", explique Gardner. "Si la forme du corps de la personne ne semble pas naturelle, ou si ses mouvements sont saccadés et décousus, la vidéo est probablement un deepfake."
  • Un autre marqueur fiable est l'arrière-plan, qui peut sembler anormalement flou ou présenter des artefacts visuels étranges. Un autre moyen simple de repérer les deepfakes consiste à rechercher une décoloration anormale ou une grave inadéquation des couleurs, en particulier en ce qui concerne le visage et l'ombre des objets environnants.
  • Si vous tombez sur une photo sur laquelle une personne arbore des « cheveux parfaits » et que vous ne pouvez repérer aucun élément individuel, comme quelques mèches de cheveux rebelles ou des frisottis, restez prudent. Les modèles d'IA sont également connus pour avoir du mal avec les dents. Faites attention aux dents qui sont anormalement parfaites, ou celles qui manquent de contours pour les dents individuelles, ou peut-être plus de dents que la prothèse humaine habituelle.
  • Des parties du corps mal alignées, des bords flous, quelques doigts supplémentaires ou moins, des membres étrangement tordus, des mouvements désynchronisés des parties du corps et une voix manquant de pauses et de pauses émotionnelles sont les autres signes que vous devez surveiller de près. "Les faux enregistrements vocaux ou audio ont souvent un bruit de fond, des voix robotiques et des prononciations étranges", explique Samulis.

Un problème sérieux avec des solutions à moitié efficaces

Rendu IA d'une personne lorgnant par téléphone
Crédit : Générateur d'images Bing

Comme expliqué ci-dessus, il n'existe pas de filet de sécurité infaillible contre les deepfakes. Mais si vous faites attention à l'endroit où vous partagez des photos, qui peut les voir et jusqu'où va votre accès aux médias sociaux, vous pouvez rester dans une zone relativement sûre.

Il faut également faire attention à qui sont ses amis en ligne et vérifier les activités des nouveaux invités avant de les ajouter à leur cercle d'amis sur les réseaux sociaux. En ce qui concerne les deepfakes, c'est un peu délicat. Mais si vous restez vigilant et prenez le temps d'évaluer les incohérences dans une photo ou une vidéo suspecte, les deepfakes peuvent être repérés avec un degré de précision assez élevé.

En fin de compte, il s'agit de cultiver des habitudes en ligne hygiéniques et de rester vigilant dans un espace en ligne de plus en plus sujet à la falsification.