OpenAI n’a jamais révélé que des pirates avaient piraté son système de messagerie interne
Un pirate informatique a réussi à infiltrer le système de messagerie interne d'OpenAI l'année dernière et à s'enfuir avec des détails sur la conception de l'IA de l'entreprise, selon un rapport du New York Times publié jeudi. L'attaque a ciblé un forum en ligne où les employés d'OpenAI discutaient des technologies et fonctionnalités à venir pour le chatbot populaire. Cependant, les systèmes dans lesquels le code GPT réel et les données utilisateur sont stockés n'ont pas été affectés.
Bien que l'entreprise ait divulgué ces informations à ses employés et aux membres du conseil d'administration en avril 2023, l'entreprise a refusé d'informer le public ou le FBI de la violation, affirmant que cela était inutile car aucune donnée d'utilisateur ou de partenaire n'avait été volée. OpenAI ne considère pas l'attaque comme constituant une menace pour la sécurité nationale et estime que l'attaquant était un seul individu sans lien avec des puissances étrangères.
Selon le New York Times, Leopold Aschenbrenner, ancien employé d'OpenAI, avait précédemment exprimé ses inquiétudes quant à l'état de l'appareil de sécurité de l'entreprise et averti que ses systèmes pourraient être accessibles aux services de renseignement d'adversaires comme la Chine. Aschenbrenner a été sommairement licencié par l'entreprise , bien que la porte-parole d'OpenAI, Liz Bourgeois, ait déclaré au New York Times que son licenciement n'était pas lié à la note.
C’est loin d’être la première fois qu’OpenAI subit une telle faille de sécurité. Depuis ses débuts en novembre 2022, ChatGPT a été ciblé à plusieurs reprises par des acteurs malveillants, entraînant souvent des fuites de données. En février de cette année, des noms d’utilisateur et des mots de passe ont été divulgués lors d’un autre piratage. En mars dernier, OpenAI a dû mettre ChatGPT entièrement hors ligne pour corriger un bug qui révélait les informations de paiement des utilisateurs, y compris le prénom et le nom, l'adresse e-mail, l'adresse de paiement, le type de carte de crédit et les quatre derniers chiffres de leur numéro de carte à d'autres. utilisateurs actifs. En décembre dernier, des chercheurs en sécurité ont découvert qu'ils pouvaient inciter ChatGPT à révéler des extraits de ses données de formation simplement en demandant au système de répéter sans fin le mot « poème ».
« ChatGPT n'est pas sécurisé. Période », a déclaré le chercheur en IA Gary Marcus à The Street en janvier . « Si vous tapez quelque chose dans un chatbot, il est probablement plus sûr de supposer que (sauf garantie contraire), la société de chatbot pourrait s'entraîner sur ces données ; ces données pourraient être divulguées à d’autres utilisateurs. Depuis l'attaque, OpenAI a pris des mesures pour renforcer ses systèmes de sécurité, notamment en installant des garde-corps de sécurité supplémentaires pour empêcher l'accès non autorisé et l'utilisation abusive des modèles, ainsi qu'en créant un comité de sûreté et de sécurité pour résoudre les problèmes futurs.