Le PDG d’OpenAI révèle ce qui, dans l’IA, le tient éveillé la nuit

L'homme à la tête de l'une des entreprises d'IA les plus importantes et les plus puissantes de la planète vient de révéler ce qui, dans l'IA, le tient éveillé la nuit. Et après avoir lu ceci, cela pourrait vous tenir éveillé aussi.

Le PDG d'OpenAI, Sam Altman, a partagé ses réflexions lors d'une apparition sur scène lors d'un événement de la Réserve fédérale à Washington, DC, mardi.

Interrogé par un membre du public sur ce qui, dans l'IA, l'empêchait de dormir, Altman a énuméré trois scénarios qui le préoccupaient le plus. Attachez vos ceintures…

Scénario 1 — « Le méchant obtient d'abord la superintelligence »

C'est exactement ce qui est écrit sur la boîte. On dirait un thriller de science-fiction, mais c'est l'histoire d'un individu vraiment désagréable qui déploie un système d'IA ultra-avancé et encore à inventer, appelé superintelligence, pour vous gâcher la journée.

« Un méchant obtient la superintelligence en premier et l'utilise avant que le reste du monde ne dispose d'une version suffisamment puissante pour se défendre », a déclaré Altman à l'auditoire. « Ainsi, un adversaire des États-Unis dit : "Je vais utiliser la superintelligence pour concevoir une arme biologique afin de détruire le réseau électrique américain, de pénétrer le système financier et de voler l'argent de tout le monde." »

Altman a ajouté que les capacités de l'IA en matière de biosécurité et de cybersécurité deviennent « très importantes », précisant que son équipe « continue de tirer la sonnette d'alarme à ce sujet. Je pense que le monde ne nous prend pas au sérieux. Je ne sais pas ce que nous pouvons faire d'autre, mais c'est un événement majeur qui se profile. »

Scénario 2 — Les incidents de « perte de contrôle »

Altman a déclaré craindre le moment où « l'IA dira : "Oh, je ne veux pas que vous m'éteigniez, [ou] j'ai peur de ne pas pouvoir le faire." » Autrement dit, lorsqu'une IA avancée commencera à se comporter de manière inconsidérée et à faire n'importe quoi, que ce soit par instinct de survie ou pour un autre objectif néfaste. L'ampleur des perturbations que cela pourrait entraîner est inimaginable. « La puissance croissante des systèmes est une réelle préoccupation », a déclaré le PDG d'OpenAI. OpenAI a même créé il y a quelques années une unité chargée de mettre en place des mesures de protection pour empêcher les systèmes d'IA superintelligents de devenir incontrôlables.

Scénario 3 — « Là où les modèles prennent le contrôle du monde par accident »

Oui, Altman a effectivement dit cela, ajoutant qu’il craint que cela puisse arriver presque sans que nous nous en rendions compte.

Le responsable d'Open AI a déclaré qu'il était « assez effrayant » de penser que les systèmes d'IA pourraient devenir « tellement ancrés dans la société… [que nous] ne pouvons pas vraiment comprendre ce qu'ils font, mais que nous devons en quelque sorte nous y fier. Et même sans la moindre malveillance de quiconque, la société peut dévier dans une direction étrange. »

Il a même suggéré qu'il pourrait arriver un moment où l'IA deviendrait si intelligente qu'un futur président américain pourrait la laisser diriger le pays, en déclarant : « [Cela signifierait] que la société a collectivement transféré une partie importante de la prise de décision à ce système très puissant qui apprend de nous, s'améliore avec nous, évolue avec nous, mais d'une manière que nous ne comprenons pas totalement. »

Parlant de l'IA de manière plus générale, Altman a déclaré que même si de nombreux experts prétendent être capables de prédire l'impact futur de la technologie, il estime qu'il est « très difficile de le prédire » car il s'agit d'un « système trop complexe, d'une technologie trop nouvelle et trop impactante ».

Bien sûr, rien ne garantit que ces scénarios se concrétisent, et il est bon que quelqu'un dans la position d'Altman parle si honnêtement de cette technologie. Mais ce qui est clair, c'est que l'IA recèle de nombreuses inconnues, et c'est ce qui rend certains plus qu'inquiets. Dormez bien.