OpenAI utilise ses propres modèles pour lutter contre l’ingérence électorale
OpenAI, le cerveau derrière la populaire solution d'IA générative ChatGPT , a publié un rapport indiquant qu'elle a bloqué plus de 20 opérations et réseaux malhonnêtes dans le monde en 2024 jusqu'à présent. Les opérations différaient par leur objectif, leur ampleur et leur orientation, et étaient utilisées pour créer des logiciels malveillants et rédiger de faux comptes médiatiques, de fausses biographies et des articles sur des sites Web.
OpenAI confirme avoir analysé les activités qu'il a arrêtées et fourni des informations clés issues de son analyse. « Les auteurs de menaces continuent d’évoluer et d’expérimenter nos modèles, mais nous n’avons pas vu de preuve que cela conduise à des avancées significatives dans leur capacité à créer de nouveaux logiciels malveillants ou à constituer des audiences virales », indique le rapport.
Ceci est particulièrement important étant donné que c'est une année électorale dans divers pays, notamment aux États-Unis, au Rwanda, en Inde et dans l'Union européenne. Par exemple, début juillet, OpenAI a interdit un certain nombre de comptes publiant des commentaires sur les élections au Rwanda publiés par différents comptes sur X (anciennement Twitter). Il est donc bon d’entendre qu’OpenAI affirme que les acteurs de la menace n’ont pas pu faire beaucoup de progrès dans leurs campagnes.
Une autre victoire pour OpenAI a été de perturber un acteur malveillant basé en Chine connu sous le nom de « SweetSpecter » qui tentait de pirater les adresses professionnelles et personnelles des employés d'OpenAI. Le rapport poursuit en disant qu'en août, Microsoft a dévoilé un ensemble de domaines qu'ils ont attribués à une opération d'influence secrète iranienne connue sous le nom de « STORM-2035 ». "Sur la base de leur rapport, nous avons enquêté, perturbé et signalé un ensemble d'activités associées sur ChatGPT."
OpenAI affirme également que les publications sur les réseaux sociaux créées par leurs modèles n'ont pas retenu beaucoup d'attention car elles ont reçu peu ou pas de commentaires, de likes ou de partages. OpenAI garantit qu'ils continueront d'anticiper la manière dont les acteurs de la menace utilisent des modèles avancés à des fins nuisibles et prévoient de prendre les mesures nécessaires pour y mettre un terme.