Une étude révèle que le battage médiatique sur l’IA entrave une véritable recherche sur l’intelligence artificielle
Une nouvelle étude de l'AAAI (Association pour l'avancement de l'intelligence artificielle) menée par des centaines de chercheurs en IA a été publiée ce mois-ci, et le principal point à retenir est le suivant : il est peu probable que notre approche actuelle de l'IA nous mène à l'intelligence artificielle générale .
L’IA est un mot à la mode depuis quelques années maintenant, mais l’intelligence artificielle en tant que domaine de recherche existe depuis de nombreuses décennies. Le célèbre article d'Alan Turing « Computing Machinery and Intelligence » et letest de Turing dont nous parlons encore aujourd'hui, par exemple, ont été publiés en 1950.
L’IA dont tout le monde parle aujourd’hui est née de ces décennies de recherche mais elle s’en démarque également. Plutôt que d’être une activité scientifique, nous avons désormais également une branche divergente de l’intelligence artificielle que l’on pourrait appeler « l’IA commerciale ».

Les efforts en matière d’IA commerciale sont menés par de grands monopoles technologiques comme Microsoft, Google, Meta, Apple et Amazon – et leur objectif principal est de créer des produits d’IA . Cela ne devrait pas poser de problème, mais pour le moment, il semble que cela pourrait l'être.
Premièrement, comme la plupart des gens n’avaient jamais suivi la recherche sur l’IA jusqu’à il y a quelques années, tout ce que l’individu moyen sait sur l’IA vient de ces entreprises plutôt que de la communauté scientifique. L'étude aborde ce sujet dans le chapitre « Perception de l'IA par rapport à la réalité », avec 79 % des scientifiques impliqués estimant que la perception actuelle des capacités de l'IA ne correspond pas à la réalité de la recherche et du développement en IA.
En d’autres termes, ce que le grand public pense que l’IA peut faire ne correspond pas à ce que les scientifiques pensent que l’IA peut faire. La raison en est aussi simple que malheureuse : lorsqu’un grand représentant de la technologie fait une déclaration sur l’IA, il ne s’agit pas d’un avis scientifique, mais de marketing produit. Ils veulent promouvoir la technologie derrière leurs nouveaux produits et s'assurer que tout le monde ressent le besoin de prendre le train en marche.
Lorsque Sam Altman ou Mark Zuckerberg affirment que les emplois en génie logiciel seront remplacés par l'IA, par exemple, c'est parce qu'ils veulent inciter les ingénieurs à acquérir des compétences en IA et inciter les entreprises technologiques à investir dans des plans d'entreprise coûteux . Jusqu'à ce qu'ils commencent à remplacer leurs propres ingénieurs (et à en bénéficier), personnellement, je n'écouterais pas un mot de ce qu'ils disent sur le sujet.
Cependant, l’IA commerciale n’influence pas seulement la perception du public. Les participants à l’étude estiment que le « battage médiatique sur l’IA » fabriqué par les grandes technologies nuit aux efforts de recherche. Par exemple, 74 % conviennent que l’orientation de la recherche sur l’IA est motivée par le battage médiatique – cela est probablement dû au fait que la recherche qui s’aligne sur les objectifs commerciaux de l’IA est plus facile à financer. 12 % estiment également que la recherche théorique sur l’IA en souffre.
Alors, à quel point est-ce un problème ? Même si les grandes entreprises technologiques influencent le type de recherche que nous effectuons, on pourrait penser que les sommes d’argent extrêmement importantes qu’elles injectent dans le domaine devraient avoir un impact globalement positif. Cependant, la diversité est essentielle en matière de recherche : nous devons emprunter toutes sortes de voies différentes pour avoir une chance de trouver la meilleure.
Mais les grandes technologies ne se concentrent actuellement que sur une seule chose : les grands modèles de langage . Ce type extrêmement spécifique de modèle d’IA est à l’origine de presque tous les derniers produits d’IA, et des personnalités comme Sam Altman estiment que la mise à l’échelle de ces modèles (c’est-à-dire en leur donnant plus de données, plus de temps de formation et plus de puissance de calcul) finira par nous donner une intelligence artificielle générale.
Cette croyance, baptisée hypothèse de mise à l’échelle, dit que plus nous alimentons une IA en puissance, plus ses capacités cognitives augmenteront et plus ses taux d’erreur diminueront. Certaines interprétations affirment également que de nouvelles capacités cognitives émergeront de manière inattendue. Ainsi, même si les LLM ne sont pas doués pour planifier et réfléchir aux problèmes à l’heure actuelle, ces capacités devraient émerger à un moment donné.
il n'y a pas de mur
– Sam Altman (@sama) 14 novembre 2024
Toutefois, ces derniers mois, l’hypothèse de la mise à l’échelle a fait l’objet de critiques considérables. Certains scientifiques pensent que la mise à l'échelle des LLM ne mènera jamais à l'AGI, et ils pensent que toute la puissance supplémentaire que nous alimentons pour les nouveaux modèles ne produit plus de résultats. Au lieu de cela, nous nous sommes heurtés à un « mur de mise à l'échelle » ou à une « limite de mise à l'échelle » où de grandes quantités de puissance de calcul et de données supplémentaires ne produisent que de petites améliorations dans les nouveaux modèles. La plupart des scientifiques qui ont participé à l’étude AAAI sont de ce côté-ci du débat :
La majorité des personnes interrogées (76 %) affirment qu’il est « peu probable » ou « très improbable » de « développer les approches actuelles d’IA » pour produire une AGI, ce qui suggère des doutes quant à savoir si les paradigmes actuels d’apprentissage automatique sont suffisants pour atteindre une intelligence générale.
Les grands modèles de langage actuels peuvent produire des réponses très pertinentes et utiles lorsque les choses se passent bien, mais pour ce faire, ils s'appuient sur des principes mathématiques . De nombreux scientifiques pensent que nous aurons besoin de nouveaux algorithmes utilisant le raisonnement, la logique et les connaissances du monde réel pour parvenir à une solution si nous voulons nous rapprocher de l’objectif de l’AGI. Voici une citation épicée sur les LLM et l'AGI tirée d'un article de 2022 de Jacob Browning et Yann Lecun.
Un système entraîné uniquement sur le langage ne se rapprochera jamais de l’intelligence humaine, même s’il est entraîné d’ici la mort thermique de l’univers.
Cependant, il n’existe aucun moyen réel de savoir qui est ici – pas encore. D’une part, la définition de l’AGI n’est pas gravée dans le marbre et tout le monde ne vise pas la même chose. Certaines personnes pensent que l’AGI devrait produire des réponses semblables à celles des humains grâce à des méthodes semblables à celles des humains. Elles devraient donc observer le monde qui les entoure et résoudre les problèmes de la même manière que nous. D'autres pensent que l'AGI devrait se concentrer davantage sur les réponses correctes que sur les réponses humaines, et que les méthodes qu'ils utilisent ne devraient pas avoir d'importance.
À bien des égards, cependant, peu importe la version d'AGI qui vous intéresse ou si vous êtes pour ou contre l'hypothèse de mise à l'échelle : nous devons encore diversifier nos efforts de recherche. Si nous nous concentrons uniquement sur la mise à l'échelle des LLM, nous devrons recommencer à zéro si cela ne fonctionne pas, et nous pourrions ne pas réussir à découvrir de nouvelles méthodes plus efficaces ou efficientes. De nombreux scientifiques participant à cette étude craignent que l’IA commerciale et le battage médiatique qui l’entoure ralentissent les progrès réels – mais tout ce que nous pouvons faire, c’est espérer que leurs préoccupations seront prises en compte et que les deux branches de la recherche sur l’IA pourront apprendre à coexister et progresser ensemble. Eh bien, vous pouvez également espérer que la bulle de l’IA éclate et que tous les produits technologiques basés sur l’IA disparaissent, si vous préférez.