L’IA rend une arnaque de longue date encore plus efficace

Vous avez sans doute entendu parler de l'escroquerie où l'agresseur appelle une personne âgée et se fait passer pour son petit-fils ou un autre parent proche. La routine habituelle consiste à agir dans un état de détresse, à faire semblant d'être dans une situation délicate et à demander un transfert d'argent urgent pour résoudre la situation. Alors que de nombreux grands-parents se rendent compte que la voix n'est pas celle de leur petit-enfant et raccrochent, d'autres ne le remarquent pas et, trop désireux d'aider leur parent anxieux, vont de l'avant et envoient de l'argent sur le compte de l'appelant.

Un rapport du Washington Post publié dimanche révèle que certains escrocs ont poussé l'escroquerie à un tout autre niveau en déployant une technologie d'intelligence artificielle capable de cloner des voix, ce qui rend encore plus probable que la cible tombera dans le piège.

Une personne âgée tenant un téléphone.
Ono Kosuki/Pexels

Pour lancer cette version plus sophistiquée de l'escroquerie, les criminels ont besoin "d'un échantillon audio avec seulement quelques phrases", selon le Post. L'échantillon est ensuite exécuté via l'un des nombreux outils en ligne largement disponibles qui utilisent la voix d'origine pour créer une réplique qui peut être chargée de dire ce que vous voulez simplement en tapant des phrases.

Les données de la Federal Trade Commission suggèrent qu'en 2022 seulement, il y a eu plus de 36 000 signalements d'escroqueries dites d'imposteurs, dont plus de 5 000 se sont produites par téléphone. Les pertes déclarées ont atteint 11 millions de dollars.

La crainte est qu'avec les outils d'IA devenant plus efficaces et plus largement disponibles, encore plus de personnes tomberont dans le piège de l'arnaque dans les mois et les années à venir.

Cependant, l'escroquerie nécessite encore une certaine planification, un auteur déterminé ayant besoin de trouver un échantillon audio d'une voix, ainsi que le numéro de téléphone de la victime concernée. Les échantillons audio, par exemple, pourraient être localisés en ligne via des sites populaires comme TikTok et YouTube, tandis que les numéros de téléphone pourraient également être localisés sur le Web.

L'escroquerie peut également prendre plusieurs formes. Le Post cite un exemple où quelqu'un se faisant passer pour un avocat a contacté un couple de personnes âgées, leur disant que leur petit-fils était en détention pour un crime présumé et qu'ils avaient besoin de plus de 15 000 $ pour les frais de justice. Le faux avocat a ensuite fait semblant de tendre le téléphone à leur petit-fils, dont la voix clonée a plaidé pour de l'aide pour payer les frais, ce qu'ils ont dûment fait.

Ils ont seulement réalisé qu'ils avaient été arnaqués lorsque leur petit-fils les a appelés plus tard dans la journée pour discuter. On pense que l'escroc a peut-être cloné sa voix à partir de vidéos YouTube que le petit-fils a publiées, bien qu'il soit difficile d'en être sûr.

Certains demandent que les entreprises qui fabriquent la technologie d'intelligence artificielle qui clone les voix soient tenues responsables de ces crimes. Mais avant que cela ne se produise, il semble certain que beaucoup d'autres perdront de l'argent via cette arnaque infâme.

Pour écouter un exemple de voix clonée et voir à quel point elle peut être proche de l'original, consultez cet article sur les tendances numériques .