Musk a dévoilé une lettre anonyme d’un ancien employé d’OpenAI, énumérant les multiples accusations portées contre Altman. La bataille du palais va-t-elle encore tourner autour ?

Le drame du palais d’OpenAI continue.

Aujourd'hui, Musk a transmis une lettre anonyme prétendument émanant d'un ancien employé d'Open AI en tant que journaliste et s'opposant aux pratiques contraires à l'éthique.

Il est rapporté que cette lettre a été transmise à Musk par le conseil d'administration, puis directement exposée par Musk. Le contenu du lien transmis a été supprimé. Pendant ce temps, de nombreux employés d’OpenAI ont condamné la lettre et défendu Sam Altman.

Musk est également l'un des fondateurs d'OpenAI. Après son départ, ses conflits avec Sam Altman sont progressivement apparus. Musk a un jour publiquement critiqué OpenAI pour avoir mal tourné.

Hier, plus de 710 personnes chez OpenAI (90 % des 770 employés) ont signé une lettre ouverte appelant à la démission du conseil d'administration et à la réintégration de l'ancien PDG Sam Altman et de l'ancien président Greg Brockman. La lettre a également été signée par Ilya Sutskever, scientifique en chef d'OpenAI et membre du conseil d'administration, accusé depuis le début d'avoir coordonné le coup d'État du conseil d'administration contre Altman.

Les contenus complètement opposés montrés dans la lettre commune et la lettre anonyme ont rendu le chaos au sein d'OpenAI encore plus confus et ont rendu l'intrigue plus de hauts et de bas. Il y a deux jours, le PDG de l'application américaine de surveillance du sommeil Eight Sleep a divulgué des données indiquant que le nombre d'utilisateurs privés de sommeil dans la région de San Francisco a soudainement augmenté de 27 %.

Ce drame de bataille de palais, regardé par tout le peuple, se développe toujours dans une direction imprévisible.

Le texte intégral de la lettre anonyme est traduit ci-dessous :

Au conseil d’administration d’OpenAI :

En tant qu'anciens employés d'OpenAI, nous vous écrivons aujourd'hui pour exprimer notre profonde préoccupation face aux récents événements survenus dans l'entreprise, en particulier les allégations de conduite inappropriée de Sam Altman.

Nous sommes des employés qui quittent notre entreprise à une époque de changements et de bouleversements importants. Compte tenu de ce que vous avez vu se produire lorsque quelqu'un ose défier Sam Altman, vous pouvez probablement comprendre pourquoi beaucoup d'entre nous choisissent de garder le silence par peur de représailles. Mais désormais, nous ne pouvons plus rester silencieux.

Nous pensons que le Conseil a la responsabilité d'enquêter de manière approfondie sur ces allégations et de prendre les mesures appropriées. Nous vous recommandons donc fortement de :

  • L'enquête d'Emmett s'est élargie pour inclure un examen de la conduite de Sam Altman depuis août 2018, début de la transition d'OpenAI d'une entité à but non lucratif à une entité à but lucratif.
  • Il existe un appel public à des déclarations privées d'anciens employés d'OpenAI qui ont démissionné, pris un congé de maladie ou ont été licenciés pendant cette période.
  • Protégez l’identité de ceux qui se manifestent et veillez à ce qu’ils soient protégés contre les représailles ou d’autres formes de préjudice.

Nous pensons que de nombreux salariés d'OpenAI ont été contraints de partir pour faciliter la transition de l'entreprise vers un modèle rentable. Cela ressort clairement du taux de rotation du personnel de l'entreprise pouvant atteindre 50 % entre janvier 2018 et juillet 2020.

Au cours de notre séjour chez OpenAI, nous avons vu Sam Altman et Greg Brockman afficher un comportement inquiétant de tromperie et de manipulation dans leur quête de l'intelligence artificielle générale (AGI). Cependant, à en juger par leurs actions, des doutes importants subsistent quant à leurs véritables intentions et quant à savoir s’ils accordent réellement la priorité aux intérêts de l’humanité tout entière.

Au départ, beaucoup d'entre nous avaient bon espoir quant à la mission d'OpenAI et ont choisi de croire en Sam et Greg. Mais à mesure que leur comportement devenait une source de préoccupation croissante, ceux qui osaient exprimer leur désaccord ont été réduits au silence ou contraints de partir. Cette suppression systématique de la dissidence crée un climat de peur et d’oppression qui étouffe toute discussion de fond sur les implications éthiques du travail d’OpenAI.

Nous pouvons fournir des exemples spécifiques de comportement malhonnête et manipulateur de Sam et Greg :

  • Sam a demandé aux chercheurs de retarder la publication des rapports sur les progrès des projets de recherche « secrets », qui ont finalement été interrompus parce qu'ils n'avaient pas donné de résultats rapidement. Ceux qui remettaient cela en question ont été considérés comme des « inadaptés à la culture » et ont même été licenciés juste avant Thanksgiving 2019.
  • Greg utilise un langage discriminatoire envers un membre transgenre de l'équipe. Malgré les promesses répétées de résoudre le problème, aucune mesure substantielle n'a été prise au-delà du fait que Greg a ensuite évité de communiquer avec les personnes concernées, ce qui a en fait créé un environnement de travail hostile. Ces membres de l’équipe ont finalement été licenciés en raison de mauvaises performances.
  • Sam a ordonné au personnel informatique et opérationnel d'enquêter sur les employés, y compris Ilya, à l'insu et sans le consentement de la direction.
  • Sam a utilisé secrètement et souvent les ressources à but non lucratif d'OpenAI pour poursuivre ses objectifs personnels, notamment en raison du ressentiment suscité par les désaccords avec Elon.
  • Par défaut, l'équipe des opérations accepte les règles spéciales qui s'appliquent à Greg, évitant intelligemment les exigences complexes pour éviter d'être mis sur liste noire.
  • Brad Lightcap n'a pas tenu sa promesse de détailler publiquement la structure limitée des bénéfices d'OpenAI et le plafond des bénéfices pour chaque investisseur.
  • L’engagement incohérent de Sam dans le calcul des quotas des projets de recherche a conduit à une méfiance interne et à des luttes intestines.

Malgré les preuves croissantes de la culpabilité de Sam et Greg, les employés d'OpenAI ont aveuglément suivi leur exemple, même si cela impliquait un coût personnel important. Cette loyauté inébranlable découle de la peur des représailles et de l'attrait d'un gain financier potentiel grâce à l'unité de participation aux bénéfices d'OpenAI.

La structure de gouvernance d'OpenAI, soigneusement conçue par Sam et Greg, vise à exclure les employés de la surveillance des opérations rentables, principalement en raison de leurs conflits d'intérêts inhérents. Cette structure opaque a permis à Sam et Greg d’opérer en toute impunité et d’éviter de rendre des comptes.

Nous exhortons le conseil d'administration d'OpenAI à adopter une position ferme contre ces pratiques contraires à l'éthique et à ouvrir une enquête indépendante sur la conduite de Sam et Greg. Nous croyons fermement que la mission d'OpenAI est trop importante pour être détournée par l'égoïsme de quelques individus.

Nous exhortons le conseil d'administration à rester fidèle à la mission initiale d'OpenAI et à ne pas succomber aux pressions motivées par le profit. L’avenir de l’intelligence artificielle et le bien-être de l’humanité dépendent de votre engagement inébranlable en faveur d’un leadership éthique et de transparence.

Cordialement, Anciens employés d'OpenAI concernés

Le style amoureux rend l’avenir à portée de main.

# Bienvenue pour suivre le compte public officiel WeChat d'Aifaner : Aifaner (WeChat ID : ifanr). Un contenu plus passionnant vous sera fourni dès que possible.

Ai Faner | Lien original · Voir les commentaires · Sina Weibo