Microsoft a déjà sa ligne de mire juridique sur DeepSeek
Microsoft, l'un des principaux investisseurs dans OpenAI, étudie actuellement si la société chinoise DeepSeek a utilisé des méthodes néfastes pour entraîner ses modèles de raisonnement. Selon Bloomberg Law, la société estime désormais que DeepSeek a violé ses conditions de service en utilisant son interface de programmation d'application (API) pour entraîner son modèle R1 récemment annoncé.
La nouvelle arrive peu de temps après que le tsar de l’IA et de la cryptographie de la Maison Blanche, David Sacks, a déclaré mardi à Fox News dans une interview qu’il était « possible » que DeepSeek « ait volé la propriété intellectuelle des États-Unis ».
"Il existe des preuves substantielles que ce que DeepSeek a fait ici, c'est qu'ils ont extrait les connaissances des modèles d'OpenAI", a déclaré Sacks au média.
L'industrie de l'IA est ravie de la capacité de DeepSeek à former des modèles d'IA de manière rapide et rentable en un an avec seulement 5,6 millions de dollars. Il existe une possibilité sous-jacente que l'efficacité de l'entreprise soit due au fait qu'elle a utilisé le modèle d'une autre entreprise comme référence.
DeepSeek a peut-être utilisé un processus appelé distillation, qui implique deux modèles ayant une dynamique enseignant-élève afin que l'un puisse collecter des informations sur l'autre. D'une part, cela pourrait expliquer les coûts d'exploitation peu élevés de l'entreprise et l'utilisation de puces Nvidia H800 moins puissantes. DeepSeek pourrait désormais devoir prouver s’il a pris toutes les mesures illégales lors du développement de ses modèles.
Avant ce développement récent, les experts du secteur avaient précédemment émis l’hypothèse que DeepSeek utilisait probablement l’ingénierie inverse pour entraîner ses modèles. Ce processus analyse les modèles pour identifier leurs modèles et leurs biais afin d'améliorer les futurs modèles. L'ingénierie inverse est une pratique courante parmi les développeurs open source et considérée comme légale.
Des chercheurs en sécurité sanctionnés par Microsoft ont déjà établi que DeepSeek aurait pu exhumer une quantité considérable de code de l'API d'OpenAI au cours de l'automne 2024. Microsoft aurait alors informé OpenAI de la violation. Le modèle R1 a été annoncé la semaine dernière, attirant l’attention sur la société chinoise d’IA et ses parties associées.
DeepSeek a également été salué comme une application d’IA open source, sur laquelle n’importe qui peut développer. C’est de là que vient une grande partie de l’enthousiasme entourant la plate-forme – en plus de sa comparaison avec les meilleurs outils tels que ChatGPT et Google Gemini. OpenAI n'est pas un service open source ; cependant, n'importe qui peut s'inscrire pour accéder à son API. La société indique clairement dans ses conditions de services que d'autres entités ne peuvent pas utiliser les résultats pour former d'autres modèles d'IA, a noté TechCrunch .
Un porte-parole d'OpenAI a déclaré à Reuters qu'indépendamment de la réglementation, diverses sociétés internationales essayant de copier des modèles d'entreprises bien connues aux États-Unis sont désormais monnaie courante.
« Nous prenons des contre-mesures pour protéger notre propriété intellectuelle, y compris un processus minutieux pour déterminer quelles capacités de pointe doivent être incluses dans les modèles publiés, et nous pensons qu'à mesure que nous progressons, il est extrêmement important que nous travaillions en étroite collaboration avec le gouvernement américain pour protéger au mieux la propriété intellectuelle. modèles les plus performants grâce aux efforts des adversaires et des concurrents pour adopter la technologie américaine », a déclaré le porte-parole.