Il s’avère qu’il n’est pas si difficile de faire ce que fait OpenAI à moindre coût
Même si OpenAI continue de s’accrocher à son affirmation selon laquelle la seule voie vers l’AGI passe par des dépenses financières et énergétiques massives, des chercheurs indépendants exploitent les technologies open source pour égaler les performances de ses modèles les plus puissants – et ce, à une fraction du prix.
Vendredi dernier, une équipe unifiée de l'Université de Stanford et de l'Université de Washington a annoncé avoir formé un grand modèle de langage axé sur les mathématiques et le codage, qui fonctionne aussi bien que les modèles de raisonnement o1 d'OpenAI et R1 de DeepSeek . La construction ne coûte que 50 $ en crédits de calcul cloud. L’équipe aurait utilisé un modèle de base disponible dans le commerce, puis y aurait distillé le modèle Gemini 2.0 Flash Thinking Experimental de Google. Le processus de distillation des IA consiste à extraire les informations pertinentes pour accomplir une tâche spécifique à partir d’un modèle d’IA plus grand et à les transférer vers un modèle plus petit.
De plus, mardi, des chercheurs de Hugging Face ont publié un concurrent aux outils Deep Research d'OpenAI et (également) Deep Research de Google Gemini , baptisé Open Deep Research , qu'ils ont développé en seulement 24 heures. "Bien que de puissants LLM soient désormais disponibles gratuitement en open source, OpenAI n'a pas révélé grand-chose sur le cadre agentique qui sous-tend Deep Research", a écrit Hugging Face dans son message d'annonce . « Nous avons donc décidé de nous lancer dans une mission de 24 heures pour reproduire leurs résultats et rendre open source le framework nécessaire en cours de route ! » Il coûterait environ 20 $ en crédits de calcul cloud et nécessiterait moins de 30 minutes pour s'entraîner.
Le modèle de Hugging Face a ensuite obtenu une précision de 55 % sur le benchmark General AI Assistants (GAIA), utilisé pour tester les capacités des systèmes d'IA agentique . En comparaison, Deep Research d'OpenAI a obtenu un taux de précision compris entre 67 et 73 %, selon les méthodologies de réponse. Certes, le modèle 24 heures sur 24 ne fonctionne pas aussi bien que l'offre d'OpenAI, mais sa formation n'a pas non plus nécessité des milliards de dollars ni la capacité de production d'énergie d'un pays européen de taille moyenne.
Ces efforts font suite à l'annonce de janvier selon laquelle une équipe du Sky Computing Lab de l'Université de Californie à Berkeley a réussi à former son modèle de raisonnement Sky T1 pour environ 450 $ en crédits de calcul dans le cloud. Le modèle Sky-T1-32B-Preview de l'équipe s'est avéré égal aux premières versions du modèle de raisonnement o1-preview. À mesure que de plus en plus de concurrents open source à la domination de l'industrie d'OpenAI émergent, leur simple existence remet en question la question de savoir si le projet de l'entreprise de dépenser un demi-billion de dollars pour construire des centres de données d'IA et des installations de production d'énergie est vraiment la réponse.