Microsoft a une nouvelle façon de garder ChatGPT éthique, mais cela fonctionnera-t-il ?
Microsoft a attiré beaucoup de critiques lorsqu'il a fermé son équipe d'éthique et de société en intelligence artificielle (IA) en mars 2023. Ce n'était pas un bon aperçu compte tenu des scandales quasi simultanés engloutissant l'IA, mais la société vient d'exposer ses intentions. de garder ses efforts futurs responsables et sous contrôle à l'avenir.
Dans un article sur le blog On the Issues de Microsoft, Natasha Crampton — Chief Responsible AI Officer de la firme de Redmond — a expliqué que l'équipe d'éthique avait été dissoute parce qu'« une seule équipe ou une seule discipline chargée d'une IA responsable ou éthique n'allait pas atteindre nos objectifs. .”
Au lieu de cela, Microsoft a adopté l'approche qu'il a adoptée avec ses équipes de confidentialité, de sécurité et d'accessibilité, et "a intégré une IA responsable dans toute l'entreprise". Dans la pratique, cela signifie que Microsoft dispose de cadres supérieurs "chargés de diriger l'IA responsable au sein de chaque groupe d'activité principal", ainsi que "d'un vaste réseau de" champions "responsables de l'IA avec une gamme de compétences et de rôles pour un engagement plus régulier et direct".
Au-delà de cela, Crampton a déclaré que Microsoft compte « près de 350 personnes travaillant sur l'IA responsable, dont un peu plus d'un tiers (129 pour être précis) qui s'y consacrent à plein temps ; les autres ont des responsabilités responsables en matière d'IA dans le cadre de leur travail. »
Après que Microsoft a fermé son équipe Éthique et société, Crampton a noté que certains membres de l'équipe ont ensuite été intégrés dans des équipes de l'entreprise. Cependant, sept membres du groupe ont été licenciés dans le cadre des vastes suppressions d'emplois de Microsoft qui ont licencié 10 000 travailleurs au début de 2023.
Naviguer dans les scandales
L'IA n'a guère été exempte de scandales ces derniers mois, et ce sont ces inquiétudes qui ont alimenté le contrecoup contre la dissolution par Microsoft de son équipe d'éthique de l'IA. Si Microsoft manquait d'une équipe dédiée pour aider à guider ses produits d'IA dans des directions responsables, pensait-on, il aurait du mal à réduire les types d'abus et de comportements douteux pour lesquels son chatbot Bing est devenu célèbre.
Le dernier article de blog de la société vise sûrement à apaiser ces inquiétudes parmi le public. Plutôt que d'abandonner complètement ses efforts en matière d'IA, il semble que Microsoft cherche à s'assurer que les équipes de l'entreprise ont des contacts réguliers avec des experts en IA responsable.
Pourtant, il ne fait aucun doute que la fermeture de son équipe AI Ethics & Society ne s'est pas bien déroulée, et il est probable que Microsoft ait encore du chemin à faire pour apaiser l'esprit collectif du public sur ce sujet. En effet, même Microsoft lui-même pense que ChatGPT — dont le développeur, OpenAI, appartient à Microsoft — devrait être réglementé .
Pas plus tard qu'hier, Geoffrey Hinton – le "parrain de l'IA – a quitté Google et a déclaré au New York Times qu'il avait de sérieuses inquiétudes quant au rythme et à l'orientation de l'expansion de l'IA, tandis qu'un groupe d'experts en technologie de premier plan a récemment signé une lettre ouverte appelant à une pause sur Développement de l'IA afin de mieux comprendre ses risques.
Microsoft n'ignore peut-être pas les inquiétudes concernant le développement éthique de l'IA, mais il reste à voir si sa nouvelle approche est la bonne ou non. Après le démarrage controversé de Bing Chat, Natasha Crampton et ses collègues espèrent que les choses vont changer pour le mieux.