La personne qui vous interroge n’est-elle pas ? New York envisage de restreindre les « intervieweurs » en intelligence artificielle
« Nous ne sommes pas en mesure de fournir des commentaires spécifiques sur les résultats de votre entretien. »
Aux États-Unis, de plus en plus d'employeurs utilisent l'intelligence artificielle (IA) pour accélérer le processus de recrutement. Mais les demandeurs d'emploi savent rarement pourquoi les outils de recrutement d'IA rejettent leurs CV, ou comment analyser leurs entretiens vidéo. Lorsqu'ils perdent les élections, ils ne peuvent souvent recevoir qu'un e-mail aussi froid, ne sachant pas pourquoi ils ont perdu les élections.
Image de : unsplash
C'est inquiétant. Quel type de pouvoir de décision l'IA joue-t-elle dans nos carrières ?
L'Associated Press a rapporté que début novembre, le conseil municipal de New York a adopté un projet de loi par 38 voix contre 4 : si le système de recrutement d'IA ne passe pas l'audit annuel, il sera interdit. L'audit annuel vérifiera le système de recrutement d'IA pour la discrimination raciale ou de genre, permettant aux demandeurs d'emploi de choisir des alternatives telles que l'examen manuel, et les développeurs d'IA devront divulguer plus de détails qui n'étaient pas transparents dans le passé.
Fait intéressant, ce sont les développeurs d'IA qui sont responsables de l'audit annuel, mais l'employeur sera puni. S'ils utilisent un système de recrutement d'IA qui échoue à l'audit annuel, la pénalité maximale pour chaque violation est de 1 500 $.
Les partisans pensent que le projet de loi ouvrira une fenêtre sur des algorithmes complexes. Les algorithmes classent souvent les compétences et les personnalités en fonction de la façon dont les candidats s'expriment ou écrivent, mais il est douteux que la machine puisse évaluer avec précision et équité les caractéristiques de la personnalité et les signaux émotionnels.Ce processus sera plus transparent à l'avenir.
À tout le moins, il est logique de savoir que "l'algorithme est rejeté parce qu'il est biaisé".
La loi anti-discrimination est principalement motivée par les plaintes. S'ils ne savent pas ce qui leur est arrivé, personne ne peut se plaindre de se voir refuser une opportunité d'emploi.
La start-up Pymetrics est également très favorable à ce projet de loi : elle prône l'utilisation de l'IA pour mener des entretiens par le biais de jeux et d'autres méthodes, et estime qu'elle répond aux exigences d'équité. Dans le même temps, les programmes d'interviews obsolètes de l'IA seront balayés à la poubelle. HireVue, un fournisseur de système de recrutement d'IA, a commencé à supprimer progressivement son outil d'analyse faciale au début de cette année.Cet outil est appelé « pseudoscience » par les universitaires, ce qui rappelle la théorie phrénologique du racisme.
La plupart de l'opposition au projet de loi est basée sur « c'est loin d'être suffisant ». Alexandra Givens, présidente du Center for Democracy and Technology, a souligné que la proposition exige en réalité que les employeurs respectent les exigences existantes de la loi américaine sur les droits civiques interdisant le recrutement qui a des effets différents sur la base de la race, de l'origine ethnique ou du sexe, mais ignore les préjugés contre le handicap ou l'âge.
Image de : unsplash
Et certains experts en intelligence artificielle et militants des droits numériques craignent que le projet de loi n'autorise uniquement les développeurs d'IA à certifier eux-mêmes qu'ils se sont conformés aux exigences de base, et qu'il ne fixe que des normes faibles pour les régulateurs et législateurs fédéraux. vague.
Il est à noter que les biais ne sont pas rares dans les entretiens.Le principal problème réside dans l'algorithme d'alimentation de l'échantillon, mais ils sont souvent placés dans une "boîte noire", difficilement détectable pour les demandeurs d'emploi ordinaires.
Il y a quelques années, Amazon a abandonné son outil d'analyse de CV car il privilégiait les hommes occupant des postes techniques. Une partie de la raison est qu'il compare les conditions des demandeurs d'emploi avec la main-d'œuvre qualifiée masculine au sein de l'entreprise ; de même, si l'algorithme se nourrit d'industries où les différences de race et de sexe sont déjà courantes, alors il ne fait que consolider les préjugés.
Ce préjugé ne se limite pas à l'embauche. En avril de cette année, une nouvelle étude de l'Université de Californie du Sud a montré que Facebook diffusait des publicités d'une manière qui pourrait enfreindre la loi anti-discrimination. voir les achats.
Image de : unsplash
Essentiellement, la discrimination de l'IA est cultivée par la société humaine, et le comportement biaisé individuel est même inconscient, et nous pouvons ne pas en être conscients nous-mêmes. Si vous comparez une entreprise avec moins de préjugés à une entreprise avec de graves préjudices, il y a généralement deux raisons : la première est meilleure pour éliminer délibérément les préjugés, et la seconde est meilleure pour collecter le statu quo déraisonnable et les perpétuer.
Par conséquent, l'opinion neutre estime que la meilleure partie de la proposition de la ville de New York est ses exigences de divulgation pour faire savoir aux gens qu'ils sont évalués par AI, comment ils sont évalués par AI et où vont leurs données.
Documents de référence :
1.https://apnews.com/article/technology-business-race-and-ethnicity-racial-injustice-artificial-intelligence-2fe8d3ef7008d299d9d810f0c0f7905d
2.https://apnews.com/article/job-seekers-artificial-intelligence-hiring-decisions-784ccec7ac6175aadc573465ab604fb9
#Bienvenue pour suivre le compte WeChat officiel d'Aifaner : Aifaner (WeChat ID : ifanr), un contenu plus passionnant vous sera fourni dès que possible.
Ai Faner | Lien original · Voir les commentaires · Sina Weibo