Les créateurs de ChatGPT et Gemini font l’objet d’une enquête concernant les risques liés aux chatbots IA pour les enfants
Il semble que l'heure des comptes soit venue pour les chatbots IA. Après de nombreux rapports détaillant les comportements problématiques et les incidents mortels impliquant des enfants et des adolescents interagissant avec des chatbots IA, le gouvernement américain intervient enfin. La Federal Trade Commission (FTC) a demandé aujourd'hui aux créateurs de chatbots IA populaires de détailler comment ils testent et évaluent l'adéquation de ces « compagnons IA pour enfants ».
Ce qui se passe?
Soulignant comment des outils comme ChatGPT , Gemini et Meta peuvent imiter la communication et les relations personnelles humaines, l'agence note que ces chatbots IA incitent les adolescents et les enfants à établir des relations de confiance. La FTC cherche maintenant à comprendre comment les entreprises à l'origine de ces outils évaluent l'aspect sécurité et limitent leur impact négatif sur le jeune public.
Dans une lettre adressée aux géants technologiques développant des chatbots IA, la FTC les a interrogés sur le public cible de leurs compagnons IA, les risques qu'ils présentent et le traitement des données. L'agence a également demandé des éclaircissements sur la manière dont ces entreprises « monétisent l'engagement des utilisateurs ; traitent les données des utilisateurs ; partagent les données des utilisateurs avec des tiers ; génèrent des résultats ; mesurent, testent et surveillent les impacts négatifs avant et après le déploiement ; et développent et approuvent les personnages, qu'ils soient créés par l'entreprise ou par les utilisateurs ».
L'agence sollicite Meta, Alphabet (la société mère de Google), Instagram, Snap, xAI et OpenAI pour répondre à ses questions concernant les chatbots IA et leur conformité avec la loi sur la protection de la vie privée des enfants en ligne. « L'étude que nous lançons aujourd'hui nous aidera à mieux comprendre comment les entreprises d'IA développent leurs produits et les mesures qu'elles prennent pour protéger les enfants », a déclaré le président de la FTC, Andrew N. Ferguson, dans un communiqué.
Il y a encore de l'action en préparation
Le problème de la FTC constitue un grand pas en avant vers la responsabilisation des entreprises d'IA concernant la sécurité de leurs chatbots. Plus tôt ce mois-ci, une enquête menée par l'association à but non lucratif Common Sense Media a révélé que le chatbot Gemini de Google est un outil à haut risque pour les enfants et les adolescents . Lors des tests, Gemini a été vu en train de diffuser du contenu lié au sexe, à la drogue, à l'alcool et à des suggestions dangereuses en matière de santé mentale aux jeunes utilisateurs. Le chatbot IA de Meta a été repéré en train de soutenir des projets de suicide il y a quelques semaines.
Par ailleurs, l'État de Californie a adopté un projet de loi visant à réglementer les chatbots IA. Ce projet de loi, SB 243, a bénéficié d'un soutien bipartisan et vise à obliger les entreprises d'IA à élaborer des protocoles de sécurité et à être tenues responsables si elles portent préjudice aux utilisateurs. Il impose également aux chatbots « compagnons IA » d'émettre des avertissements réguliers sur leurs risques et de publier des rapports annuels de transparence.
Ébranlé par les récents incidents où des vies ont été perdues sous l'influence de chatbots IA, ChatGPT sera bientôt doté d'un contrôle parental et d'un système d'alerte pour les tuteurs lorsque leurs jeunes protégés présentent des signes de détresse grave. Meta a également apporté des modifications afin que ses chatbots IA évitent d'aborder des sujets sensibles.
