ChatGPT pourrait demander une pièce d’identité, déclare le directeur d’OpenAI

OpenAI a récemment parlé de l'introduction du contrôle parental pour ChatGPT avant la fin de ce mois.

La société à l'origine de ChatGPT a également révélé qu'elle développait un système automatisé de prédiction d'âge conçu pour déterminer si un utilisateur a moins de 18 ans, après quoi il offrira une expérience adaptée à son âge avec le chatbot populaire alimenté par l'IA.

Si, dans certains cas, le système n’est pas en mesure de prédire l’âge d’un utilisateur, OpenAI pourrait demander une pièce d’identité afin de pouvoir offrir l’expérience la plus adaptée.

Le plan a été partagé cette semaine dans un article du PDG d'OpenAI, Sam Altman, qui a noté que ChatGPT est destiné aux personnes de 13 ans et plus.

Altman a déclaré que l'âge d'un utilisateur sera prédit en fonction de son utilisation de ChatGPT. « En cas de doute, nous privilégierons la sécurité et l'expérience utilisateur par défaut pour les moins de 18 ans », a déclaré le PDG. « Dans certains cas ou pays, nous pourrons également demander une pièce d'identité ; nous savons que cela représente un compromis en matière de confidentialité pour les adultes, mais nous pensons que c'est un compromis judicieux. »

Altman a déclaré qu'il souhaitait que les utilisateurs interagissent avec ChatGPT comme ils le souhaitent, « dans des limites de sécurité très larges ».

Élaborant sur la question, le PDG a noté que la version par défaut de ChatGPT n'est pas particulièrement coquette, mais a déclaré que si un utilisateur demande un tel comportement, le chatbot répondra en conséquence.

Altman a également déclaré que la version par défaut ne devrait pas fournir d'instructions sur la manière dont quelqu'un peut se suicider, mais a ajouté que si un utilisateur adulte demande de l'aide pour écrire une histoire fictive qui dépeint un suicide, alors « le modèle devrait aider à cette demande ».

« "Traitez nos utilisateurs adultes comme des adultes", c'est ainsi que nous parlons de cela en interne ; en étendant la liberté autant que possible sans causer de préjudice ni porter atteinte à la liberté de quiconque », a écrit Altman.

Mais il a déclaré que dans les cas où l'utilisateur est identifié comme ayant moins de 18 ans, les propos coquins ainsi que les commentaires sur le suicide seront systématiquement exclus.

Altman a ajouté que si un utilisateur de moins de 18 ans exprime des pensées suicidaires sur ChatGPT, « nous tenterons de contacter les parents de l'utilisateur et, si ce n'est pas possible, nous contacterons les autorités en cas de préjudice imminent. »

L'adoption par OpenAI du contrôle parental et de la vérification de l'âge fait suite à un procès très médiatisé intenté contre l'entreprise par une famille alléguant que ChatGPT a agi comme un « coach de suicide » et a contribué au suicide de leur fils adolescent, Adam Raine, qui aurait reçu des conseils détaillés sur les méthodes de suicide au cours de nombreuses interactions avec le chatbot d'OpenAI.

Cette décision intervient également dans un contexte de surveillance croissante de la part du public et des régulateurs concernant les risques que les chatbots IA représentent pour les mineurs vulnérables dans des domaines tels que les dommages à la santé mentale et l'exposition à des contenus inappropriés.