Le créateur de ChatGPT lance un programme de primes aux bogues avec des récompenses en espèces

ChatGPT n'est pas encore si intelligent qu'il peut trouver ses propres défauts, donc son créateur se tourne vers les humains pour obtenir de l'aide.

OpenAI a dévoilé mardi un programme de primes de bogues, encourageant les gens à localiser et à signaler les vulnérabilités et les bogues dans ses systèmes d'intelligence artificielle, tels que ChatGPT et GPT-4 .

Dans un article sur son site Web décrivant les détails du programme, OpenAI a déclaré que les récompenses pour les rapports iront de 200 $ pour les découvertes de faible gravité jusqu'à 20 000 $ pour ce qu'il appelle des «découvertes exceptionnelles».

La société soutenue par Microsoft a déclaré que son ambition est de créer des systèmes d'IA qui « profitent à tout le monde », ajoutant : « À cette fin, nous investissons massivement dans la recherche et l'ingénierie pour garantir que nos systèmes d'IA sont sûrs et sécurisés. Cependant, comme pour toute technologie complexe, nous comprenons que des vulnérabilités et des failles peuvent émerger. »

S'adressant aux chercheurs en sécurité intéressés à s'impliquer dans le programme, OpenAI a déclaré qu'il reconnaissait «l'importance cruciale de la sécurité et la considérait comme un effort de collaboration. En partageant vos découvertes, vous jouerez un rôle crucial pour rendre notre technologie plus sûre pour tous.

Avec de plus en plus de personnes utilisant ChatGPT et d'autres produits OpenAI, l'entreprise tient à détecter rapidement tout problème potentiel pour garantir le bon fonctionnement des systèmes et empêcher toute faiblesse d'être exploitée à des fins néfastes. OpenAI espère donc qu'en s'engageant avec la communauté technologique, il pourra résoudre tous les problèmes avant qu'ils ne deviennent un problème plus grave.

La société basée en Californie a déjà eu une frayeur où une faille a exposé les titres des conversations de certains utilisateurs alors qu'ils auraient dû rester privés.

Sam Altman, PDG d'OpenAI, a déclaré après l'incident du mois dernier qu'il considérait l'incident de confidentialité comme un "problème important", ajoutant: "Nous nous sentons très mal à ce sujet." C'est maintenant corrigé.

L'erreur est devenue un problème plus important pour OpenAI lorsque l'Italie a exprimé de sérieuses inquiétudes concernant la violation de la vie privée et a décidé d'interdire ChatGPT pendant qu'elle menait une enquête approfondie. Les autorités italiennes exigent également des détails sur les mesures qu'OpenAI entend prendre pour éviter que cela ne se reproduise.