Suspendre le développement de l’IA ou risquer une catastrophe, prévient Elon Musk
L'intelligence artificielle (IA) a évolué à une vitesse incroyable ces derniers mois, avec le lancement de divers outils et robots tels que ChatGPT d'OpenAI , Google Bard, etc. Pourtant, ce développement rapide suscite de vives inquiétudes parmi les vétérans chevronnés du domaine de l'IA – à tel point que plus de 1 000 d'entre eux ont signé une lettre ouverte appelant les développeurs d'IA à serrer les freins.
La lettre a été publiée sur le site Web du Future of Life Institute , une organisation dont la mission déclarée est «d'orienter la technologie transformatrice vers le bénéfice de la vie et loin des risques extrêmes à grande échelle». Parmi les signataires figurent plusieurs universitaires éminents, le cofondateur d'Apple, Steve Wozniak, et le PDG de Twitter, Elon Musk.
L'article appelle toutes les entreprises travaillant sur des modèles d'IA plus puissants que le GPT-4 récemment publié à interrompre immédiatement le travail pendant au moins six mois. Ce moratoire devrait être "public et vérifiable" et donnerait le temps de "développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d'IA qui sont rigoureusement audités et supervisés par des experts externes indépendants".
La lettre indique que cela est nécessaire car "les systèmes d'IA dotés d'une intelligence compétitive humaine peuvent poser de graves risques pour la société et l'humanité". Ces risques incluent la propagation de la propagande, la destruction d'emplois, le remplacement potentiel et l'obsolescence de la vie humaine, et la «perte de contrôle de notre civilisation». Les auteurs ajoutent que la décision de poursuivre ou non cet avenir ne devrait pas être laissée aux «leaders technologiques non élus».
L'IA "pour le bénéfice évident de tous"
La lettre arrive juste après que des affirmations aient été faites selon lesquelles GPT-5, la prochaine version de la technologie alimentant ChatGPT, pourrait réaliser une intelligence générale artificielle . S'il est correct, cela signifie qu'il serait capable de comprendre et d'apprendre tout ce qu'un humain peut comprendre. Cela pourrait le rendre incroyablement puissant d'une manière qui n'a pas encore été pleinement explorée.
De plus, la lettre affirme qu'il n'y a pas de planification et de gestion responsables entourant le développement de systèmes d'IA, "même si ces derniers mois ont vu les laboratoires d'IA enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants qu'aucun personne – pas même ses créateurs – ne peut comprendre, prédire ou contrôler de manière fiable.
Au lieu de cela, la lettre affirme que de nouveaux systèmes de gouvernance doivent être créés pour réglementer le développement de l'IA, aider les gens à distinguer le contenu créé par l'IA et créé par l'homme, tenir les laboratoires d'IA responsables de tout dommage qu'ils causent, permettre à la société de faire face à la perturbation de l'IA (en particulier pour démocratie), etc.
Les auteurs terminent sur une note positive, affirmant que "l'humanité peut profiter d'un avenir florissant avec l'IA… dans lequel nous récoltons les fruits, concevons ces systèmes pour le bénéfice de tous et donnons à la société une chance de s'adapter". Faire une pause sur des systèmes d'IA plus puissants que GPT-4 permettrait que cela se produise, déclarent-ils.
La lettre aura-t-elle l'effet escompté ? C'est difficile à dire. Il existe clairement des incitations pour les laboratoires d'IA à continuer à travailler sur des modèles avancés, à la fois financiers et réputationnels. Mais avec tant de risques potentiels – et avec très peu de compréhension de ceux-ci – les auteurs de la lettre estiment clairement que ces incitations sont trop dangereuses pour être poursuivies.