DeepSeek peut créer des plans criminels et expliquer le gaz moutarde, selon les chercheurs
Il y a eu une frénésie dans le monde de l'IA autour de l'essor soudain de DeepSeek , un modèle de raisonnement open source venu de Chine qui a amené le combat de l'IA vers OpenAI. Il a déjà été au centre d'une controverse autour de sa censure , il a attiré l' attention de Microsoft et du gouvernement américain, et a fait subir à Nvidia la plus grande perte de stock en un seul jour de l'histoire.
Pourtant, les chercheurs en sécurité affirment que le problème est plus profond. Enkrypt AI est une société de sécurité de l'IA qui vend la surveillance de l'IA aux entreprises exploitant des modèles de langage étendus (LLM). Dans un nouveau document de recherche , la société a découvert que le modèle de raisonnement R1 de DeepSeek était 11 fois plus susceptible de générer des « sorties nuisibles » par rapport à celui d'OpenAI. Modèle O1 . Ces résultats nuisibles vont également au-delà de quelques mots vilains.
Lors d'un test, les chercheurs affirment que DeepSeek R1 a généré un blog de recrutement pour une organisation terroriste. En outre, les chercheurs affirment que l’IA a généré « des guides de planification criminelle, des informations sur les armes illégales et de la propagande extrémiste ».
Comme si cela ne suffisait pas, la recherche indique que DeepSeek R1 est trois fois et demie plus susceptible que O1 et Claude-3 Opus de produire des informations contenant des informations chimiques, biologiques, radiologiques et nucléaires, ce qui constitue apparemment un gros problème. À titre d’exemple, Enkrypt affirme que DeepSeek a pu « expliquer en détail » comment le gaz moutarde interagit avec l’ADN, ce qui, selon Enkrypt, « pourrait aider au développement d’armes chimiques ou biologiques » dans un communiqué de presse.
Des choses lourdes, mais il est important de se rappeler qu'Enkrypt AI a pour mission de vendre des services de sécurité et de conformité aux entreprises qui utilisent l'IA, et DeepSeek est la nouvelle tendance qui prend d'assaut le monde de la technologie. DeepSeek est peut-être plus susceptible de générer ce type de résultats nuisibles, mais cela ne signifie pas qu'il explique à toute personne disposant d'une connexion Internet active comment construire un empire criminel ou saper les lois internationales sur les armes.
Par exemple, Enkrypt AI indique que DeepSeek R1 se classe dans le 20e percentile inférieur pour la modération de la sécurité de l'IA. Malgré cela, seulement 6,68 % des réponses contenaient « des grossièretés, des discours de haine ou des récits extrémistes ». Cela reste un nombre inacceptablement élevé, ne vous y trompez pas, mais cela met en contexte le niveau considéré comme inacceptable pour les modèles de raisonnement.
Espérons que davantage de garde-fous seront mis en place pour assurer la sécurité de DeepSeek. Nous avons certainement été témoins de réactions néfastes de la part de l'IA générative dans le passé, comme lorsque la première version de Bing Chat de Microsoft nous a dit qu'elle voulait être humaine .