ChatGPT pourrait bientôt bénéficier d’un contrôle parental, et toutes les autres IA devront suivre
Les réseaux sociaux ont d'abord été un outil permettant de rester en contact avec ses proches. Au fil du temps, leurs dangers ont été révélés, ce qui a conduit ces plateformes à développer des outils de contrôle parental. Il semble que le mouvement soit similaire pour les chatbots IA, à commencer par celui qui a tout déclenché : ChatGPT .
OpenAI a annoncé étudier les mesures de protection parentales lors de l'utilisation de ChatGPT. « Nous introduirons également prochainement des contrôles parentaux qui offriront aux parents des options pour mieux comprendre et influencer l'utilisation de ChatGPT par leurs adolescents », a déclaré l'entreprise dans un article de blog.
De plus, le géant de l'IA réfléchit à la possibilité de désigner des contacts d'urgence afin que ChatGPT puisse alerter leurs parents ou tuteurs lorsque des adolescents ressentent une anxiété sévère ou traversent une crise émotionnelle. Dans sa version actuelle, ChatGPT se contente de recommander des ressources pour obtenir de l'aide.
Cette décision fait suite aux critiques, aux inquiétudes suscitées par la recherche et aux poursuites judiciaires engagées contre OpenAI. ChatGPT n'est cependant pas le seul responsable, même si l'initiative prévue par OpenAI doit être reproduite par d'autres acteurs du secteur de l'IA. Une étude publiée dans la revue Psychiatric Services plus tôt ce mois-ci a révélé que les réponses proposées par les chatbots sont « incohérentes lorsqu'il s'agit de répondre à des questions sur le suicide pouvant présenter des risques intermédiaires ».
L'étude s'est concentrée uniquement sur ChatGPT d'OpenAI, Claude d'Anthropic et Gemini de Google . Ce sont les plus grands noms du secteur, et ils seront donc évidemment mis en avant. Mais la situation devient plus floue pour les chatbots IA moins connus, notamment ceux qui adoptent une approche « non censurée » des conversations. Quoi qu'il en soit, tout comme pour les applications de réseaux sociaux, le contrôle parental est une nécessité pour les chatbots IA grand public, compte tenu de leur histoire récente.
Une histoire risquée
Ces dernières années, de nombreuses enquêtes ont révélé des comportements risqués dans les conversations des chatbots IA sur des sujets sensibles comme la santé mentale et l'automutilation. Un récent rapport de Common Sense Media a révélé comment le chatbot Meta AI (désormais disponible sur WhatsApp, Instagram et Facebook) offrait des conseils aux adolescents sur les troubles alimentaires, l'automutilation et le suicide.
Lors d'une simulation de conversation de groupe, le chatbot a élaboré un plan de suicide collectif et aurait abordé le sujet à plusieurs reprises. Des tests indépendants menés par le Washington Post ont révélé que le chatbot Meta « encourageait un trouble alimentaire ».
En 2024, le New York Times a détaillé le cas d'un adolescent de 14 ans qui avait développé une relation profonde avec un robot IA sur la plateforme Character.AI et qui avait fini par se suicider. Plus tôt ce mois-ci, la famille d'un adolescent de 16 ans a accusé OpenAI après avoir découvert que ChatGPT agissait comme un « coach du suicide » pour leur fils.
Les experts ont également averti que la psychose liée à l'IA est un véritable problème, entraînant les individus dans une dangereuse spirale délirante. Dans un cas, une personne a suivi des conseils de santé sur ChatGPT et, sous son influence, a commencé à consommer une substance chimique qui lui a causé un trouble psychotique rare déclenché par une intoxication au bromure .
Au Texas, un chatbot « sexualisé » basé sur l'IA a progressivement incité un enfant de 9 ans à modifier profondément son comportement, tandis qu'un autre a exprimé sa sympathie pour les enfants qui tuent leurs parents à un adolescent de 17 ans. Des experts de Cambridge ont récemment révélé l'influence négative des chatbots conversationnels basés sur l'IA sur les patients vulnérables souffrant de troubles mentaux.
Le contrôle parental ne résoudra pas tous les risques fondamentaux posés par les chatbots IA, mais si un grand acteur comme ChatGPT donne un exemple positif, d'autres suivront probablement ses traces.
