OpenAI construit une nouvelle équipe pour empêcher l’IA super intelligente de devenir voyou
Si les personnes qui sont à la pointe de la technologie de l'intelligence artificielle commentent les effets catastrophiques potentiels des systèmes d'IA hautement intelligents, alors il est probablement sage de s'asseoir et d'en prendre note.
Il y a quelques mois à peine, Geoffrey Hinton, un homme considéré comme l'un des "parrains" de l'IA pour son travail de pionnier dans le domaine, a déclaré que le rythme rapide de développement de la technologie signifiait qu'il n'était "pas inconcevable" que l'IA super intelligente – considéré comme supérieur à l'esprit humain – pourrait finir par anéantir l'humanité.
Et Sam Altman, PDG d'OpenAI, la société à l'origine du chatbot viral ChatGPT , avait admis avoir "un peu peur" des effets potentiels des systèmes d'IA avancés sur la société.
Altman est tellement préoccupé que mercredi, sa société a annoncé la création d'une nouvelle unité appelée Superalignment visant à garantir que l'IA super intelligente ne finisse pas par provoquer le chaos ou quelque chose de bien pire.
"La superintelligence sera la technologie la plus percutante que l'humanité ait jamais inventée et pourrait nous aider à résoudre bon nombre des problèmes les plus importants au monde", a déclaré OpenAI dans un article présentant la nouvelle initiative. "Mais le vaste pouvoir de la superintelligence pourrait aussi être très dangereux et pourrait conduire à la perte de pouvoir de l'humanité ou même à l'extinction humaine."
OpenAI a déclaré que bien que l'IA superintelligente puisse sembler lointaine, elle pense qu'elle pourrait être développée d'ici 2030. Et elle admet volontiers qu'à l'heure actuelle, aucun système n'existe "pour diriger ou contrôler une IA potentiellement superintelligente, et l'empêcher d'aller voyou."
Pour faire face à la situation, OpenAI veut construire un "chercheur d'alignement automatisé à peu près au niveau humain" qui effectuerait des contrôles de sécurité sur une IA superintelligente, ajoutant que la gestion de ces risques nécessitera également de nouvelles institutions pour la gouvernance et la résolution du problème de l'alignement des superintelligences.
Pour que le superalignement ait un effet, OpenAI doit réunir une équipe d'élite composée de chercheurs et d'ingénieurs en apprentissage automatique.
L'entreprise semble très franche à propos de ses efforts, le décrivant comme un "objectif incroyablement ambitieux" tout en admettant qu'il n'est "pas garanti de réussir". Mais il ajoute qu'il est "optimiste qu'un effort ciblé et concerté puisse résoudre ce problème".
Les nouveaux outils d'IA comme ChatGPT d'OpenAI et Bard de Google, parmi tant d'autres, sont si révolutionnaires que les experts sont certains que même à ce niveau pré-superintelligence, le lieu de travail et la société au sens large sont confrontés à des changements fondamentaux à court terme.
C'est pourquoi les gouvernements du monde entier s'efforcent de rattraper leur retard, s'empressant d'imposer des réglementations à l'industrie de l'IA en développement rapide dans le but de garantir que la technologie est déployée de manière sûre et responsable. Cependant, à moins qu'un organisme unique ne soit formé, chaque pays aura ses propres opinions sur la meilleure façon d'utiliser la technologie, ce qui signifie que ces réglementations pourraient varier considérablement et conduire à des résultats sensiblement différents. Et ce sont ces différentes approches qui rendront l'objectif de Superalignment d'autant plus difficile à atteindre.