Les chats Claude seront désormais utilisés pour l’entraînement de l’IA, mais vous pouvez vous échapper

Claude , l'un des chatbots IA les plus populaires et candidat potentiel d'Apple pour améliorer Siri, enregistrera bientôt une transcription de toutes vos conversations à des fins d'entraînement de l'IA. Le changement de politique annoncé par Anthropic est déjà visible pour les utilisateurs et leur donne jusqu'au 28 septembre pour en accepter les conditions.

Qu'est-ce qui change ?

Anthropic affirme que l'historique des interactions des utilisateurs avec Claude et son outil Claude Code, axé sur les développeurs, sera utilisé pour la formation, l'amélioration des modèles et le renforcement des garde-fous de sécurité. Jusqu'à présent, l'entreprise d'IA n'a pas exploité les données des utilisateurs pour la formation de son IA.

« En participant, vous nous aiderez à améliorer la sécurité de nos modèles, en rendant nos systèmes de détection de contenu préjudiciable plus précis et moins susceptibles de signaler des conversations inoffensives », précise l'entreprise. Ce changement de politique n'est pas obligatoire et les utilisateurs peuvent choisir de le refuser.

Les utilisateurs recevront une notification concernant la politique d'utilisation des données jusqu'au 28 septembre. La fenêtre contextuelle leur permettra de désactiver facilement l'option « Vous pouvez contribuer à améliorer Claude », puis d'enregistrer leur préférence en cliquant sur le bouton « Accepter » . Après le 28 septembre, les utilisateurs devront modifier manuellement leurs préférences depuis le tableau de bord des paramètres d'entraînement du modèle.

Quel est le résultat final ?

La politique de formation mise à jour ne concerne que les nouvelles conversations avec Claude, ou celles que vous reprenez, mais pas les anciennes. Mais pourquoi ce revirement ? La voie vers la suprématie de l'IA est assez simple. Plus vous aurez de supports de formation, meilleures seront les performances du modèle d'IA.

Le secteur est déjà confronté à une pénurie de données ; la décision d'Anthropic n'est donc pas surprenante. Si vous utilisez déjà Claude, vous pouvez vous désinscrire en suivant ce chemin : Paramètres > Confidentialité > Aider à améliorer Claude .

La nouvelle politique d'Anthropic relative aux données utilisateur couvre les forfaits Claude Free, Pro et Max. Elle ne s'applique toutefois pas à Claude for Work, Claude Gov, Claude for Education, à l'utilisation d'APU, ni à la connexion à des plateformes tierces telles que Vertex AI de Google et Amazon Bedrock.

Par ailleurs, Anthropic modifie également ses règles de conservation des données. L'entreprise peut désormais conserver une copie des données utilisateur jusqu'à cinq ans. Les conversations supprimées manuellement par les utilisateurs ne seront pas utilisées pour l'entraînement de l'IA.