OpenAI sévit contre les escrocs ChatGPT
OpenAI a clairement indiqué que son service phare d'IA, ChatGPT, n'est pas destiné à une utilisation malveillante.
La société a publié un rapport détaillant qu'elle a observé les tendances des mauvais acteurs utilisant sa plateforme à mesure qu'elle devient de plus en plus populaire. OpenAI a indiqué avoir supprimé des dizaines de comptes soupçonnés d'utiliser ChatGPT de manière non autorisée, par exemple pour "déboguer du code afin de générer du contenu à publier sur diverses plateformes de distribution".
La société a également récemment annoncé avoir atteint le cap des 400 millions d'utilisateurs actifs hebdomadaires . La société a précisé que son nombre d'utilisateurs a augmenté de plus de 100 millions en moins de trois mois, à mesure que de plus en plus d'entreprises et de développeurs utilisent ses outils. Cependant, ChatGPT est également un service gratuit accessible dans le monde entier. Les aspects moraux et éthiques de ses fonctions étant depuis longtemps remis en question, OpenAI a dû accepter le fait qu’il existe des entités qui ont des arrière-pensées pour la plateforme.
« Les politiques d'OpenAI interdisent strictement l'utilisation des résultats de nos outils à des fins de fraude ou d'escroquerie. Grâce à notre enquête sur les programmes d’emploi trompeurs, nous avons identifié et interdit des dizaines de comptes », a indiqué la société dans son rapport.
Dans son rapport, OpenAI évoque la nécessité de contester les actions néfastes qui se déroulent sur ChatGPT. La société a mis en avant plusieurs études de cas, dans lesquelles elle a découvert et pris des mesures en interdisant les comptes qui utilisaient l'outil à des fins malveillantes.
Dans un cas, OpenAI a détaillé un compte qui écrivait des articles de presse désobligeants sur les États-Unis, la source d'information étant publiée en Amérique latine sous le couvert d'une signature de publication chinoise.
Un autre cas, localisé en Corée du Nord, consistait à générer des curriculum vitae et des profils d'emploi pour des candidats fictifs. Selon OpenAI, le compte pourrait avoir été utilisé pour postuler à des emplois dans des entreprises occidentales.
Une autre étude a révélé des comptes vraisemblablement originaires du Cambodge qui utilisaient ChatGPT pour la traduction et pour générer des commentaires dans les réseaux d'« escrocs romantiques » qui infiltrent plusieurs plateformes de médias sociaux, notamment X, Facebook et Instagram.
OpenAI a confirmé avoir partagé ses conclusions avec ses contemporains du secteur, tels que Meta, qui pourraient par inadvertance être affectés par les actions se déroulant sur ChatGPT.
Un problème persistant
Ce n’est pas la première fois qu’OpenAI détaille ses efforts pour lutter contre les mauvais acteurs sur sa plateforme d’IA. En octobre 2024, la société a publié un rapport mettant en lumière 20 cyberattaques qu’elle a empêchées, notamment des événements menés par des pirates informatiques parrainés par l’État iranien et chinois.
Les experts en cybersécurité observent également depuis longtemps des acteurs malveillants utilisant ChatGPT à des fins néfastes, telles que le développement de logiciels malveillants et d’autres codes malveillants. Ces découvertes existent depuis début 2023, lorsque l’outil était encore nouveau sur le marché. C’est à ce moment-là qu’OpenAI envisageait pour la première fois d’introduire un niveau d’abonnement pour répondre à sa forte demande.
De telles tâches néfastes impliquaient que de mauvais acteurs utilisaient l'API de l'entreprise pour créerdes alternatives ChatGPT susceptibles de générer des logiciels malveillants. Cependant, les experts en chapeau blanc ont également étudié les logiciels malveillants générés par l’IA dans une perspective de recherche, découvrant des failles qui permettent au chatbot de générer du code néfaste en morceaux plus petits et moins détectables.
Les professionnels de l'informatique et de la cybersécurité ont été interrogés en février 2023 sur la sécurité de ChatGPT , et beaucoup ont répondu qu'ils pensaient que l'outil serait responsable d'une cyberattaque réussie dans l'année. En mars 2023, l’entreprise avait subi sa première violation de données, qui allait devenir monnaie courante.