OpenAI est interpellé pour son opposition à un projet de loi sur la sécurité de l’IA

Les anciens employés d'OpenAI, William Saunders et Daniel Kokotajlo, ont écrit une lettre au gouverneur de Californie, Gavin Newsom, affirmant que l'opposition de l'entreprise à un projet de loi d'État qui imposerait des directives et des protocoles de sécurité stricts pour le développement futur de l'IA est décevante mais pas surprenante.

"Nous avons rejoint OpenAI parce que nous voulions garantir la sécurité des systèmes d'IA incroyablement puissants que l'entreprise développe", ont écrit Saunders et Kokotajlo. "Mais nous avons démissionné d'OpenAI parce que nous n'avions plus confiance dans le fait qu'elle développerait ses systèmes d'IA en toute sécurité, honnêtement et de manière responsable."

Les deux soutiennent que la poursuite du développement sans garde-fous suffisants « présente des risques prévisibles de dommages catastrophiques pour le public », qu’il s’agisse de « cyberattaques sans précédent ou d’aide à la création d’armes biologiques ».

Le duo n’a pas tardé à souligner l’hypocrisie du PDG d’OpenAI, Sam Altman, en matière de réglementation. Ils soulignent son récent témoignage au Congrès appelant à une réglementation de l’industrie de l’IA, mais notent que « lorsqu’une véritable réglementation est sur la table, il s’y oppose ».

Selon une enquête réalisée en 2023 par la société MITRE et Harris Poll, seuls 39 % des personnes interrogées pensaient que la technologie d'IA d'aujourd'hui est « sûre et sécurisée ».

Le projet de loi en question, SB-1047, la Safe and Secure Innovation for Frontier Artificial Models Act, exigerait, « entre autres choses, qu'un développeur, avant de commencer à former initialement un modèle couvert… se conforme à diverses exigences, y compris la mise en œuvre de la capacité de procéder rapidement à un arrêt complet… et de mettre en œuvre un protocole de sûreté et de sécurité écrit et distinct. OpenAI a subi de multiples fuites de données et intrusions dans le système ces dernières années.

OpenAI serait fortement en désaccord avec la « interprétation erronée de notre position sur le SB 1047 » par les chercheurs, comme l'a déclaré un porte-parole à Business Insider . L'entreprise affirme plutôt qu'« un ensemble de politiques fédérales en matière d'IA, plutôt qu'un patchwork de lois étatiques, favorisera l'innovation et positionnera les États-Unis pour diriger le développement de normes mondiales », a déclaré Jason Kwon, directeur de la stratégie d'OpenAI, dans une lettre à Le sénateur de l'État de Californie, Scott Wiener, en février.

Saunders et Kokotajlo rétorquent que les pressions d'OpenAI en faveur d'une réglementation fédérale ne sont pas de bonne foi. "Nous ne pouvons pas attendre que le Congrès agisse – ils ont explicitement déclaré qu'ils ne souhaitaient pas adopter une réglementation significative sur l'IA", ont écrit les deux hommes. "S'ils le font un jour, cela pourrait devancer la législation de l'AC."