DeepSeek AI suscite la colère des agences d’espionnage à cause de la thésaurisation des données et des préjugés chauds
Les problèmes de confidentialité et de sécurité continuent de s’accumuler pour DeepSeek, un nouveau venu chinois en pleine effervescence. Après avoir bloqué l'accès aux législateurs et aux employés fédéraux dans plusieurs pays, tout en sonnant l'alarme sur sa censure et ses garanties, il a maintenant fait l'objet d'un avis officiel de l'agence d'espionnage sud-coréenne.
Le National Intelligence Service (NIS) du pays a ciblé la société d'IA pour une collecte excessive et des réponses douteuses sur des sujets sensibles à l'héritage coréen, selon Reuters .
"Contrairement à d'autres services d'IA générative, il a été confirmé que les enregistrements de chat sont transférables car ils incluent une fonction permettant de collecter des modèles de saisie au clavier permettant d'identifier les individus et de communiquer avec les serveurs d'entreprises chinoises telles que volceapplog.com", a déclaré l'agence.
Cela fait suite à un avis du gouvernement demandant à différentes agences et ministères de bloquer l'accès des employés à DeepSeek en raison d'alarmes de sécurité. L’Australie et Taïwan ont déjà mis en place de telles restrictions, et d’autres pays devraient emboîter le pas.
Le principal problème est que DeepSeek offrirait à ses partenaires publicitaires un accès ouvert aux données des utilisateurs, sur lesquelles le gouvernement chinois peut également mettre la main, conformément aux lois locales. Selon le Korea Herald , le chatbot renvoyait également des réponses controversées à des questions sur des sujets géopolitiques culturellement sensibles et controversés.
Notamment, le chatbot fournit des réponses différentes lorsqu’on lui pose la même question en coréen et en chinois. Selon le Korea Times , l'agence procédera prochainement à d'autres tests pour évaluer les aspects de sûreté et de sécurité.
Si les problèmes de sécurité ont fait la une des journaux comme étant la principale préoccupation liée à DeepSeek, les experts s'inquiètent également des réponses que cela peut générer. Dans une analyse du Wall Street Journal , l’IA a craché des informations inquiétantes telles que la recette pour fabriquer des armes biologiques, un manifeste de défense nazi et des encouragements à l’automutilation.
Dans une analyse réalisée par Anthropic, le géant de l'IA, le PDG de l'entreprise, Dario Amodei, a mentionné que DeepSeek s'est avéré être le pire modèle d'IA lors de ses tests lorsqu'il s'agit de générer des informations extrêmement inquiétantes telles que la création d'armes biologiques.
Il y a un peu plus d'une semaine, des chercheurs de Cisco l'ont également testé contre des outils de jailbreak dans six catégories différentes, et il n'a pas réussi à bloquer chaque attaque. Lors d'une autre série de tests effectués par Qualys , l'IA n'a pu obtenir qu'un taux de réussite au jailbreak de 47 %.
Il y a ensuite les inquiétudes concernant la fuite de données sensibles et leur partage sans aucune retenue. Les chercheurs en cybersécurité de Wiz ont récemment découvert plus d'un million de lignes d'historique de discussion contenant des informations sensibles accessibles au public.
DeepSeek a corrigé la faille, mais son adoption commerciale reste un sujet de débat brûlant. Aux États-Unis, la NASA a déjà interdit à ses employés d’utiliser DeepSeek, tout comme la marine américaine. De plus, un projet de loi visant à interdire DeepSeek sur les appareils fédéraux est également sur la table.