« Grim outlook » alors que les criminels réquisitionnent les chatbots d’IA, selon Europol

Europol a émis cette semaine un avertissement sévère soulignant les risques posés par les criminels alors qu'ils s'attaquent à la nouvelle vague de chatbots à IA avancée.

Dans un article partagé en ligne cette semaine, l'agence européenne d'application de la loi a décrit comment des outils tels que ChatGPT et GPT-4 d'OpenAI, et Bard de Google , seront de plus en plus utilisés par les criminels à la recherche de nouvelles façons d'escroquer les membres du public.

Elle a identifié trois domaines spécifiques qui la préoccupent le plus.

Tout d'abord, la fraude et l'ingénierie sociale, où des e-mails sont envoyés à des cibles dans l'espoir de les amener à télécharger un fichier infecté par un logiciel malveillant ou à cliquer sur un lien qui les mène à un site Web tout aussi dangereux.

Les e-mails de phishing, comme on les appelle, sont généralement remplis d'erreurs grammaticales et de fautes d'orthographe et finissent dans le dossier des courriers indésirables. Même ceux qui arrivent dans la boîte de réception sont écrits de manière si épouvantable que le destinataire est capable de le jeter rapidement sans arrière-pensée.

Mais les chatbots IA sont capables de créer des messages bien écrits sans erreurs bâclées, permettant aux criminels d'envoyer des e-mails convaincants qui signifient que les destinataires devront faire très attention lors de la vérification de leurs messages.

Europol a déclaré que les chatbots avancés sont capables de "reproduire des modèles de langage peuvent être utilisés pour imiter le style de discours d'individus ou de groupes spécifiques", ajoutant qu'une telle capacité peut être "abusée à grande échelle pour induire en erreur les victimes potentielles à placer leur confiance entre les mains". d'acteurs criminels.

Une forme de désinformation plus convaincante devrait également proliférer, la nouvelle vague de chatbots excellant dans la création de textes authentiques à grande vitesse et à grande échelle, a déclaré Europol, ajoutant : « Cela rend le modèle idéal à des fins de propagande et de désinformation, car il permet aux utilisateurs de générer et de diffuser des messages reflétant un récit spécifique avec relativement peu d'efforts. »

Troisièmement, Europol a cité le codage comme un nouveau domaine dont s'emparent les cybercriminels pour créer des logiciels malveillants. "En plus de générer un langage de type humain, ChatGPT est capable de produire du code dans un certain nombre de langages de programmation différents", a souligné l'agence. "Pour un criminel potentiel avec peu de connaissances techniques, il s'agit d'une ressource inestimable pour produire du code malveillant."

Il a déclaré que la situation "offre une perspective sombre" pour ceux qui sont du côté droit de la loi, car les activités néfastes en ligne deviennent plus difficiles à détecter.

L'engouement pour les chatbots IA a décollé en novembre 2022 lorsque OpenAI, soutenu par Microsoft, a publié son impressionnant outil ChatGPT. Une version améliorée, GPT-4, est sortie tout récemment , tandis que Google a également dévoilé son propre outil similaire, appelé Bard. Tous les trois sont connus pour leur capacité impressionnante à créer un texte au son naturel avec seulement quelques invites, avec la technologie susceptible d' aider ou même de remplacer une multitude d'emplois différents dans les années à venir.

Une autre technologie similaire basée sur l'IA vous permet de créer des images, des vidéos et de l'audio originaux avec seulement quelques invites de texte, soulignant qu'aucune forme de média n'échappera à l'impact de l'IA à mesure que la technologie continue de s'améliorer.

Certaines voix de premier plan ont des inquiétudes compréhensibles quant à son ascension rapide, avec une récente lettre ouverte signée par Elon Musk , le co-fondateur d'Apple, Steve Wozniak, et divers experts affirmant que les systèmes d'IA dotés d'une intelligence compétitive humaine peuvent poser "des risques profonds pour la société et l'humanité". La lettre appelait à une pause de six mois pour permettre la création et la mise en œuvre de protocoles de sécurité pour les outils avancés, ajoutant que si elle était gérée de la bonne manière, "l'humanité peut profiter d'un avenir florissant avec l'IA".