L’IA de Zoom la technologie pour détecter les émotions pendant les appels dérange les critiques

Zoom a commencé à développer une technologie d'intelligence artificielle capable de scanner les visages et la parole des utilisateurs afin de déterminer leurs émotions, ce qui a été signalé pour la première fois par Protocol .

Bien que cette technologie semble encore en être à ses premières phases de développement et de mise en œuvre, plusieurs groupes de défense des droits de l'homme prévoient qu'elle pourrait être utilisée à des fins plus discriminatoires et exhortent Zoom à se détourner de cette pratique.

Une femme sur un appel Zoom.
Zoom

Actuellement, Zoom a des plans détaillés pour utiliser la technologie AI dans un protocole de vente et de formation. Dans un article de blog partagé le mois dernier, Zoom a expliqué comment son concept de "Zoom IQ" fonctionne pour aider les vendeurs à déterminer les émotions des personnes avec lesquelles ils sont en communication pour améliorer leurs arguments.

Le blog note que Zoom IQ suit des mesures telles que le rapport conversation-écoute, la vitesse de conversation, le monologue, la patience, les questions engageantes, les prochaines étapes, l'intensification, le sentiment et l'engagement.

Zoom a également noté sur son blog que les données qu'il collecte sont "à des fins d'information et peuvent contenir des inexactitudes".

"Les résultats ne sont pas destinés à être utilisés pour des décisions d'emploi ou d'autres décisions comparables. Toutes les plages recommandées pour les mesures sont basées sur des recherches accessibles au public », a ajouté la société.

Néanmoins, plus de 25 groupes de défense des droits ont envoyé mercredi une lettre conjointe au PDG de Zoom, Eric Yuan, exhortant l'entreprise à suspendre toute recherche supplémentaire sur l'intelligence artificielle basée sur les émotions qui pourrait avoir des conséquences fâcheuses pour les personnes défavorisées. Certains de ces groupes incluent Access Now, l'American Civil Liberties Union (ACLU) et la Muslim Justice League.

La directrice adjointe du projet Discours, confidentialité et technologie de l'ACLU, Esha Bhandari, a déclaré à la Fondation Thomson Reuters que l'IA émotionnelle était "une science indésirable" et une "technologie effrayante".

Au-delà de la note initiale de Zoom dans son blog d'avril, la société n'a pas encore répondu à cette critique, qui a commencé dès la semaine dernière.

Nous avons récemment vu des marques telles que DuckDuckGo s'opposer à Google au nom de la confidentialité. Après avoir prétendu se débarrasser des cookies invasifs, sur les navigateurs Web, Google les a essentiellement remplacés par une technologie capable de suivre et de collecter de la même manière les données des utilisateurs.