Utiliser trop ChatGPT peut créer une dépendance émotionnelle, selon une étude

OpenAI semble annoncer chaque semaine de nouveaux modèles d'IA pour améliorer son chatbot ChatGPT pour le bien de ses 400 millions d'utilisateurs . Cependant, la facilité offerte par l’outil d’IA semble prouver qu’il est possible d’avoir trop de bonnes choses.

La société d’intelligence artificielle se penche désormais sur les potentielles ramifications psychologiques que ChatGPT pourrait avoir sur ses utilisateurs. OpenAI a publié les résultats d'une étude en deux parties réalisée en collaboration avec le MIT Media Lab, qui a révélé un lien entre l'utilisation accrue du chatbot ChatGPT et le sentiment accru de solitude des utilisateurs.

Chaque organisation a mené une étude indépendante et a ensuite compilé les résultats pour en faire une conclusion consolidée. L'étude d'OpenAI a examiné sur un mois « plus de 40 millions d'interactions ChatGPT », qui n'incluaient pas l'implication humaine pour préserver la confidentialité des utilisateurs. Pendant ce temps, le MIT a observé environ 1 000 participants utilisant ChatGPT pendant 28 jours. Actuellement, les études n’ont pas encore été évaluées par des pairs.

L'étude du MIT s'est penchée sur différentes fonctions d'utilisation qui pourraient affecter l'expérience émotionnelle des utilisateurs lorsqu'ils interagissent avec ChatGPT, y compris l'utilisation de texte ou de voix. Les résultats ont révélé que l'un ou l'autre média avait le potentiel de susciter la solitude ou d'affecter la socialisation des utilisateurs pendant la durée de l'étude. L'inflexion de la voix et le choix du sujet constituaient également un point de comparaison majeur.

Un ton neutre utilisé dans le mode vocal de ChatGPT était moins susceptible d'entraîner un résultat émotionnel négatif pour les participants. Parallèlement, l'étude a observé une corrélation entre les participants ayant des conversations personnelles avec ChatGPT et la probabilité accrue de solitude ; cependant, ces effets étaient à court terme. Ceux qui utilisent le chat textuel, même pour discuter de sujets généraux, ont connu des cas accrus de dépendance émotionnelle à l'égard du chatbot.

L'étude a également observé que ceux qui déclaraient considérer ChatGPT comme un ami, et ceux qui avaient déjà une propension à un fort attachement émotionnel dans les relations, étaient plus susceptibles de se sentir plus seuls et plus dépendants émotionnellement du chatbot lors de leur participation à l'étude.

L'étude d'OpenAI a ajouté un contexte supplémentaire, ses résultats notant globalement que l'interaction avec ChatGPT à des fins émotionnelles était rare. De plus, l'étude a révélé que même parmi les gros utilisateurs qui ont implémenté la fonctionnalité Advanced Voice Mode sur le chatbot et étaient plus susceptibles de répondre qu'ils considéraient ChatGPT comme un ami, ce groupe de participants a éprouvé de faibles réactions émotionnelles lors de l'interaction avec le chatbot.

OpenAI a conclu que son intention avec ces études est de comprendre les défis qui pourraient survenir en raison de sa technologie, ainsi que de pouvoir définir des attentes et des exemples sur la manière dont ses modèles devraient être utilisés.

Alors qu'OpenAI suggère que son étude basée sur l'interaction simule les comportements de personnes réelles, de nombreux humains réels ont admis sur des forums publics, tels que Reddit , utiliser ChatGPT au lieu d'aller voir un thérapeute avec leurs émotions.