Le nouvel outil d’OpenAI peut détecter les fausses images d’IA, mais il y a un piège
Les images générées par l’intelligence artificielle (IA) ont suscité beaucoup de consternation ces derniers mois, les gens craignant à juste titre qu’elles puissent être utilisées pour diffuser de la désinformation et tromper le public. Aujourd'hui, le créateur de ChatGPT, OpenAI, travaille apparemment sur un outil capable de détecter les images générées par l'IA avec une précision de 99 %.
Selon Bloomberg , l'outil d'OpenAI est conçu pour éliminer les images créées par les utilisateurs et créées par son propre générateur d'images Dall-E 3 . S'exprimant lors de l'événement Tech Live du Wall Street Journal, Mira Murati, directrice de la technologie chez OpenAI, a affirmé que l'outil était « fiable à 99 % ». Bien que la technologie soit testée en interne, il n'y a pas encore de date de sortie.
S'il est aussi précis que le prétend OpenAI, il pourra peut-être offrir au public la connaissance que les images qu'il voit sont soit authentiques, soit générées par l'IA. Pourtant, OpenAI n'a pas semblé révéler comment cet outil alerterait les gens sur les images de l'IA, que ce soit en utilisant un filigrane, un avertissement textuel ou autre chose.
Il convient de noter que l'outil est uniquement conçu pour détecter les images Dall-E et qu'il ne sera peut-être pas en mesure de détecter les contrefaçons générées par des services concurrents tels que Midjourney, Stable Diffusion et Adobe Firefly. Cela pourrait limiter son utilité dans le grand schéma des choses, mais tout ce qui peut mettre en évidence de fausses images pourrait avoir un impact positif.
Développement continu
OpenAI a lancé dans le passé des outils conçus pour repérer le contenu créé par ses propres chatbots et générateurs. Plus tôt en 2023, la société a publié un outil qui, selon elle, pouvait détecter le texte créé par ChatGPT, mais il a été retiré quelques mois plus tard après qu'OpenAI a admis qu'il était très inexact.
En plus du nouvel outil de détection d'images, OpenAI a également discuté des tentatives de l'entreprise pour réduire la tendance de ChatGPT à « halluciner » ou à diffuser des informations absurdes et inventées. "Nous avons fait beaucoup de progrès sur la question des hallucinations avec GPT-4, mais nous ne sommes pas là où nous devons être", a déclaré Murati, suggérant que les travaux sur GPT-5 – le suivi du GPT-4 Le modèle qui sous-tend ChatGPT est en bonne voie.
En mars 2023, une liste de leaders technologiques a signé une lettre ouverte implorant OpenAI de suspendre les travaux sur quelque chose de plus puissant que GPT-4, sous peine de « risques profonds pour la société et l’humanité ». Il semble que cette demande soit tombée dans l’oreille d’un sourd.
Reste à savoir si le nouvel outil d'OpenAI sera plus efficace que son dernier effort, qui a été annulé en raison de son manque de fiabilité. Ce qui est certain, c'est que les travaux de développement se poursuivent à un rythme rapide, malgré les risques évidents.