Même Microsoft pense que ChatGPT doit être réglementé – voici pourquoi
Les chatbots d'intelligence artificielle (IA) ont pris d'assaut le monde, les capacités de ChatGPT de Microsoft provoquant émerveillement et peur dans une mesure presque égale. Mais dans une tournure intrigante, même Microsoft appelle maintenant les gouvernements à agir et à réglementer l'IA avant que les choses ne deviennent dangereusement incontrôlables.
L'appel a été lancé par BSA, un groupe commercial représentant de nombreuses sociétés de logiciels d'entreprise, dont Microsoft, Adobe, Dropbox, IBM et Zoom. Selon CNBC , le groupe plaide pour que le gouvernement américain intègre les règles régissant l'utilisation de l'IA dans la législation nationale sur la protection de la vie privée.
Plus précisément, l'argument de BSA repose sur quatre principes principaux. Celles-ci incluent les affirmations selon lesquelles le Congrès devrait clairement indiquer quand les entreprises doivent déterminer l'impact potentiel de l'IA, et que ces exigences devraient entrer en vigueur lorsque l'utilisation de l'IA conduit à des "décisions consécutives" – que le Congrès devrait également définir.
La BSA déclare également que le Congrès devrait garantir la conformité de l'entreprise en utilisant une agence fédérale existante et que le développement de programmes de gestion des risques doit être une exigence pour toute entreprise traitant de l'IA à haut risque.
Selon Craig Albright, vice-président des relations avec le gouvernement américain à la BSA, « Nous sommes un groupe industriel qui souhaite que le Congrès adopte cette législation, nous essayons donc d'attirer davantage l'attention sur cette opportunité. Nous pensons qu'il n'a tout simplement pas reçu autant d'attention qu'il pourrait ou devrait.
La BSA estime que la loi américaine sur la confidentialité et la protection des données, un projet de loi bipartite qui n'est pas encore devenu loi, est la bonne législation pour codifier ses idées sur la réglementation de l'IA. Le groupe commercial a déjà été en contact avec le House Energy and Commerce Committee – l'organisme qui a présenté le projet de loi pour la première fois – au sujet de son point de vue.
La législation arrive sûrement
La vitesse vertigineuse à laquelle les outils d'IA se sont développés au cours des derniers mois a alarmé de nombreux recoins quant aux conséquences potentielles pour la société et la culture, et ces craintes ont été exacerbées par les nombreux scandales et controverses qui ont secoué le terrain.
En effet, BSA n'est pas le premier organisme à avoir préconisé des garde-corps plus stricts contre les abus d'IA. En mars 2023, un groupe d'éminents leaders technologiques a appelé les entreprises d'IA à suspendre leurs recherches sur tout ce qui est plus avancé que GPT-4. Le groupe a déclaré que cela était nécessaire parce que « les systèmes d'IA dotés d'une intelligence humaine compétitive peuvent poser de graves risques pour la société et l'humanité » et que la société dans son ensemble devait rattraper son retard et comprendre ce que le développement de l'IA pourrait signifier pour l'avenir de la civilisation.
Il est clair que la rapidité avec laquelle les outils d'IA se sont développés a suscité beaucoup de consternation parmi les leaders de l'industrie et le grand public. Et quand même Microsoft suggère que ses propres produits d'IA devraient être réglementés, il semble de plus en plus probable qu'une certaine forme de législation sur l'IA deviendra loi tôt ou tard.