Les pirates utilisent l’IA pour créer des logiciels malveillants vicieux, selon le FBI
Le FBI a averti que les pirates se déchaînent avec des outils d'intelligence artificielle (IA) générative comme ChatGPT , créant rapidement du code malveillant et lançant des virées de cybercriminalité qui auraient demandé beaucoup plus d'efforts dans le passé.
Le FBI a détaillé ses préoccupations lors d'un appel avec des journalistes et a expliqué que les chatbots d'IA ont alimenté toutes sortes d'activités illicites, des escrocs et des fraudeurs perfectionnant leurs techniques aux terroristes consultant les outils pour lancer des attaques chimiques plus dommageables.
Selon un haut responsable du FBI (via Tom's Hardware ), "Nous nous attendons à ce qu'au fil du temps, à mesure que l'adoption et la démocratisation des modèles d'IA se poursuivent, ces tendances augmenteront." Les mauvais acteurs utilisent l'IA pour compléter leurs activités criminelles habituelles, ont-ils poursuivi, notamment en utilisant des générateurs de voix IA pour se faire passer pour des personnes de confiance afin de frauder des êtres chers ou des personnes âgées.
Ce n'est pas la première fois que nous voyons des pirates prendre des outils comme ChatGPT et les tordre pour créer des logiciels malveillants dangereux. En février 2023, des chercheurs de la société de sécurité Checkpointont découvert que des acteurs malveillants avaient pu modifier l'API d'un chatbot, lui permettant de générer du code malveillant et de mettre la création de virus à la portée de presque tous les pirates potentiels.
ChatGPT est-il une menace pour la sécurité ?
Le FBI adopte une position très différente de celle de certains des cyber-experts auxquels nous avons parlé en mai 2023. Ils nous ont dit que la menace des chatbots d'IA était largement exagérée, la plupart des pirates trouvant de meilleurs exploits de code à partir de fuites de données plus traditionnelles et open-source. recherche.
Par exemple, Martin Zugec, directeur des solutions techniques chez Bitdefender, a expliqué que "la majorité des auteurs de logiciels malveillants novices ne possèdent probablement pas les compétences requises" pour contourner les barrières anti-malware des chatbots. En plus de cela, a expliqué Zugec, "la qualité du code malveillant produit par les chatbots a tendance à être faible".
Cela offre un contrepoint aux affirmations du FBI, et nous devrons voir quelle partie s'avère avoir raison. Mais avec le fabricant de ChatGPT, OpenAI, qui a abandonné son propre outil conçu pour détecter le plagiat généré par les chatbots , les nouvelles n'ont pas été encourageantes ces derniers temps. Si le FBI a raison, il pourrait y avoir des moments difficiles dans la bataille contre les pirates et leurs tentatives de logiciels malveillants alimentés par chatbot.