Votre point de vue ne vous est-il pas vraiment donné par l’IA ?
Notre relation avec les outils n'a jamais été uniquement « utiliser » et « être utilisé ».
Bien que ChatGPT ait attiré l'attention de plus en plus sur le potentiel de l'IA, nous utilisons en fait les outils d'IA depuis longtemps. Cependant, notre compréhension de l'impact des outils sur les personnes est encore relativement faible.
Beaucoup de gens savent déjà que les algorithmes de recommandation des plateformes de médias sociaux rendent non seulement les téléphones portables "meilleurs et plus faciles à scanner", mais aussi "devinez ce que vous aimez" pour impliquer les utilisateurs dans le cocon de l'information.
Pour les outils d'IA qui corrigent automatiquement l'orthographe, génèrent automatiquement des réponses par e-mail et génèrent des PPT, vous pouvez avoir l'impression que vous dirigez leur travail, mais ces outils ne sont vraiment pas "neutres" comme vous l'imaginiez.
Écrivez et écrivez et vous serez convaincu
Un nombre croissant de recherches indique que les outils d'IA changent l'esprit des gens sans même qu'ils s'en rendent compte.
L'une des dernières études a souligné que lorsque le sujet de recherche utilise l'IA pour aider à la rédaction d'un article, l'IA poussera le sujet de recherche à rédiger un article qui soutient ou s'oppose à un point de vue spécifique en fonction de son propre parti pris.
Dans le même temps, le processus de rédaction d'un article peut également affecter considérablement l'opinion des utilisateurs sur ce sujet.
Mor Naaman, de l'Université Cornell, appelle cela "la persuasion implicite" et dit que les gens "ne savent peut-être même pas qu'ils sont influencés".
Bien que l'IA puisse rendre les gens plus efficaces, elle peut aussi modifier subtilement les perspectives des gens.
De plus, la façon dont l'IA change les gens ressemble plus à la façon dont une personne change et persuade une autre par la coopération et les activités sociales, et pas tellement à la façon dont les médias sociaux nous affectent.
Une autre étude a porté sur la fonctionnalité Smart Reply de Gmail.
Avec l'aide de cette fonctionnalité, les gens enverront des réponses plus positives et la communication entre les utilisateurs sera plus positive.
La deuxième étude a souligné que cette réponse automatique rend également le destinataire perçoit l'expéditeur comme plus chaleureux et plus coopératif.
Étant donné que des entreprises telles que Microsoft et Google intègrent de manière organique l'IA dans divers logiciels de bureau, l'impact supplémentaire de l'IA sur les personnes est également à portée de main.
Au pire, ceux qui ont le pouvoir et la technologie peuvent utiliser ces outils apparemment inoffensifs et améliorant la productivité pour conduire et influencer les attitudes des gens envers certaines choses.
Par rapport aux algorithmes de recommandation, bulles de filtres et terriers de lapin appliqués sur les réseaux sociaux… le plus intéressant ici est son "secret".
Les chercheurs qui ont découvert la situation croient que la meilleure défense est de sensibiliser les gens au problème.
À plus long terme, les exigences réglementaires de transparence de l'IA sont un autre moyen de faire savoir aux utilisateurs le type de biais d'une IA particulière.
Lydia Chilton, professeur à l'Université de Columbia, a souligné que lorsque les gens comprendront ce que l'IA biaise et choisissent d'utiliser ce biais pour leur propre usage et décident quand l'utiliser, les gens retrouveront leur autonomie.
C'est un "préjugé" et une "vue d'objectif"
L'IA n'a pas de "valeurs", mais parce que les supports de formation et les personnes formées ont de la valeur et des préjugés, l'IA sera biaisée.
Les chercheurs pensent que ce type de biais peut nous aider à comprendre dans une certaine mesure les attitudes de groupes spécifiques à l'égard d'événements spécifiques.
Cependant, avant de l'utiliser, nous devons d'abord étudier clairement quel est le biais de l'IA.
Le Dr Tatsunori Hashimoto et ses collègues ont trouvé un moyen – laissez AI faire le questionnaire.
L'équipe de Hashimoto a demandé à l'IA de faire un sondage sur le concept du Pew Research Center et a comparé les résultats obtenus par l'IA avec les groupes de recherche divisés par Pew lui-même pour savoir à quel groupe le "biais" d'une IA spécifique est le plus similaire.
L'étude a révélé que le "biais" du modèle de langage OpenAI (pas la dernière version) n'est pas conforme au concept de la plupart des groupes américains, mais est plus proche du groupe d'étudiants.
L'étude suppose que, peut-être parce que les personnes de ce groupe sont les plus susceptibles d'être responsables de l'ajustement de modèles linguistiques similaires, le modèle linguistique reflète également davantage les idées du groupe.
Lydia Chilton, professeur à l'Université de Columbia, estime que lorsque les gens peuvent voir quelle est la position de "partialité" derrière l'IA, nous pouvons non seulement éviter d'être affectés par la "persuasion implicite", mais aussi mieux utiliser ces outils.
Par exemple, le service commercial peut créer un assistant IA qui se concentre sur les ventes, dans le but de conclure des ventes ; le service client peut également créer son propre assistant IA orienté service, dans le but de rendre les clients heureux.
De plus, les gens peuvent également utiliser activement des IA spécifiques pour se pousser vers des expressions spécifiques (ou l'expression idéale dans leur esprit) :
Je trouve fatigant de m'énerver et de parler sur un ton joyeux.
Normalement, la caféine aide un peu à cela, et maintenant ChatGPT peut aussi aider.
#Bienvenue pour prêter attention au compte public WeChat officiel d'Aifaner : Aifaner (WeChat ID : ifanr), un contenu plus excitant vous sera présenté dès que possible.
Ai Faner | Lien d'origine · Voir les commentaires · Sina Weibo