Un outil de filigrane ChatGPT précis peut exister, mais OpenAI ne le publiera pas

chatGPT sur un téléphone sur une encyclopédie
Shantanu Kumar / Pexels

Méfiez-vous des plagiaires de ChatGPT , car OpenAI a développé un outil capable de détecter le résultat d'écriture de GPT-4 avec une précision de 99,99 %. Cependant, la société a passé plus d’un an à se demander si elle devait ou non le rendre public.

La société aurait adopté une « approche délibérée » en raison de « la complexité impliquée et de son impact probable sur l’écosystème plus large au-delà d’OpenAI », selon TechCrunch . "La méthode de filigrane de texte que nous développons est techniquement prometteuse, mais présente des risques importants que nous évaluons pendant que nous recherchons des alternatives, notamment la susceptibilité au contournement par de mauvais acteurs et le potentiel d'avoir un impact disproportionné sur des groupes tels que les non-anglophones", a déclaré un porte-parole d'OpenAI. dit.

Le système de filigrane de texte fonctionne en incorporant un modèle spécifique dans la sortie écrite du modèle qui est détectable par l'outil OpenAI, mais invisible pour l'utilisateur final. Bien que cet outil puisse détecter de manière fiable l'écriture générée par son propre moteur GPT-4, il ne peut pas détecter les sorties d'autres modèles comme Gemini ou Claude. De plus, le filigrane lui-même peut être supprimé en exécutant le texte via Google Translate, en le déplaçant vers une autre langue, puis en revenant.

Ce n'est pas la première tentative d'OpenAI de créer un outil de détection de texte. L'année dernière, il a discrètement supprimé un détecteur de texte similaire qu'il avait en cours de développement en raison du taux de détection dérisoire de l'outil et de sa propension aux faux positifs. Lancé en janvier 2023, ce détecteur nécessitait qu'un utilisateur saisisse manuellement un exemple de texte d'au moins 1 000 caractères avant de pouvoir prendre une décision. Il a réussi à classer correctement le contenu généré par l’IA avec seulement 26 % de précision et a étiqueté le contenu généré par l’homme comme dérivé de l’IA dans 9 % du temps. Cela a également conduit un professeur de Texas A&M à échouer à tort dans une classe entière pour avoir soi-disant utilisé ChatGPT lors de ses devoirs finaux.

OpenAI hésiterait également à publier l'outil par crainte d'une réaction négative des utilisateurs. Selon le Wall Street Journal, 69 % des utilisateurs de ChatGPT estiment qu'un tel outil ne serait pas fiable et entraînerait probablement de fausses accusations de tricherie. 30 % supplémentaires ont déclaré qu'ils abandonneraient volontiers le chatbot au profit d'un modèle différent si OpenAI déployait réellement la fonctionnalité. La société craint également que les développeurs soient en mesure de procéder à une ingénierie inverse du filigrane et de créer des outils pour l'annuler.

Même si OpenAI débat des mérites de la sortie de son système de filigrane, d'autres startups d'IA se précipitent pour lancer leurs propres détecteurs de texte, notamment GPTZero, ZeroGPT, Scribbr et Writer AI Content Detector. Cependant, compte tenu de leur manque général de précision, l’œil humain reste notre meilleure méthode pour repérer les contenus générés par l’IA, ce qui n’est pas rassurant.