L’envers du père de ChatGPT : mensonges, manipulations, luttes intestines
Le conseil d'administration peut me virer.
Je pense que c'est très important.
» a déclaré Sam Altman lors d'un événement en juin 2023.
Altman a toujours été fier de la particularité de la structure de gestion d'OpenAI – une organisation à but non lucratif supervisant une organisation à but lucratif, la première étant chargée de rechercher des AGI sûres et bénéfiques au développement humain, et la seconde gagnant de l'argent pour collecter des fonds pour " soutenir" la recherche.
De ce fait, dans une certaine mesure, le conseil d'administration du premier n'est pas responsable envers les investisseurs, mais envers « l'humanité toute entière ». Si nécessaire, le PDG peut même être licencié.
Jusqu'à ce que cela se produise réellement.
Après le "Palace Fight" du mois dernier, Altman a utilisé des actions pour prouver que la possibilité qu'il avait évoquée au début n'était qu'un mirage.
Alors que le « Palace Fight » touchait à sa fin, plus de détails sur l'incident ont commencé à être révélés, et une autre facette d'Altman a progressivement émergé :
Quatre personnes qui ont travaillé avec Altman au fil des années affirment également qu'il peut être un homme rusé, parfois délibérément trompeur et trompeur.
"Times" a admis que l'image de ce "PDG de l'année" se complique. À mesure que de plus en plus d’informations émergent, une autre facette d’Altman devient difficile à ignorer.
Créateur de luttes intestines
Lorsque Helen Toner, ancienne membre du conseil d'administration d'OpenAI, a publié un article sur la sécurité de l'IA, elle ne s'attendait peut-être pas à ce que cela révèle un côté inquiétant d'Altman.
En octobre de cette année, Toner, qui est également directeur de la stratégie et du financement de la recherche au Centre pour la sécurité et les technologies émergentes de l'Université de Georgetown, a co-écrit un article sur la sécurité de l'IA. Dans l'industrie de l'IA, Toner est également considéré comme quelqu'un qui ose s'exprimer.
Cet article mentionne que la sortie de ChatGPT par OpenAI a rendu les géants de la technologie nerveux, incitant ces entreprises à accélérer le lancement de produits d'IA pour suivre la tendance. Le journal mentionne également que le concurrent d’OpenAI, Anthroic, attend de lancer son chatbot pour éviter « les feux d’artifice qui alimentent le battage médiatique sur l’IA ».
▲ Toner Hélène
Altman estime que l'article de Toner nuira à OpenAI – si les membres de l'entreprise disent de telles choses, cela rendra OpenAI, qui attire déjà l'attention des régulateurs, encore plus laid, et pourrait amener les régulateurs à spéculer sur l'existence de problèmes plus profonds au sein de l'entreprise.
En réponse, Toner a envoyé un e-mail collectif aux autres membres du conseil d'administration pour leur rappeler l'impact possible du journal et répondre aux questions pertinentes.
Altman, quant à lui, a commencé à parler en privé avec d'autres membres du conseil d'administration.
Altman et certains membres du conseil d'administration ont déclaré que la directrice Tasha McCauley avait clairement indiqué "qu'il était clair qu'Helen devait partir". McCauley a précisé qu'il n'avait jamais dit une telle chose .
Plus tard, les membres du conseil d’administration ont commencé à parler et ont appris qu’une telle situation existait.
Il a une manière d’empêcher les autres de voir l’ensemble du tableau.
Une personne proche du dossier a déclaré qu’un tel comportement laissait les gens se demander ce que pensaient les autres.
Cela peut être considéré comme une tactique commerciale courante, mais cette personne proche du dossier estime que le comportement d'Altman a « dépassé les limites » et affecté la supervision efficace de son comportement par le conseil d'administration.
▲ Outre Altman et Greg Brockman, les anciens membres du conseil d'administration d'OpenAI comprennent également Ilya Sutskever, Tasha McCauley, Adam D'Angelo et Helen Toner.
"Il essaie de monter les gens les uns contre les autres en mentant sur ce qu'ils pensent", a déclaré une autre personne proche du dossier. "Cela dure depuis des années".
Des personnes proches du point de vue d'Altman ont déclaré qu'Altman avait admis plus tard qu'il avait été "vraiment maladroit en essayant de destituer des membres du conseil d'administration", mais a déclaré qu'il n'essayait pas de manipuler le conseil d'administration.
Il convient de noter que plusieurs rapports ont souligné que cet incident n'était pas la raison directe pour laquelle le conseil d'administration a décidé de licencier Altman, mais qu'il était en effet représentatif en clarifiant le comportement d'Altman et a sonné l'alarme pour le conseil d'administration.
La voix qui permet réellement au conseil d'administration de décider des actions vient de l'équipe de direction d'OpenAI.
Née de l’idéalisme, l’OpenAI est-elle aussi un « lieu de travail toxique » ?
Cet automne, le conseil d'administration a rencontré un petit groupe de managers d'OpenAI « venant à leur porte ».
Le groupe, qui comprenait des membres clés de l'entreprise ainsi que des dirigeants responsables de la gestion de grandes équipes, a déclaré au conseil d'administration qu'Altman avait été « psychologiquement abusif » envers les membres de l'entreprise.
Ils ont souligné qu'Altman avait délibérément « attisé les bagarres » entre les employés, conduisant à une concurrence malsaine au sein de l'entreprise.
Ils pensaient que le comportement d'Altman était assez « toxique » lorsqu'il interagissait avec lui, et ils s'inquiétaient également du comportement de représailles d'Altman :
L'un d'eux a déclaré au conseil d'administration que lorsqu'un employé fournissait des commentaires critiques à Altman, Altman discréditerait cet employé dans l'équipe de cette personne.
Bien que tout cela semble assez « familier » au conseil d’administration – grâce au document de Toner – le conseil d’administration doit encore prendre en compte le niveau extrêmement élevé de loyauté qu’Altman a cultivé dans le contenu de l’entreprise et l’impact possible à long terme de l’incident.
En même temps, ce petit groupe de managers qui ont porté plainte sont également des membres très importants d’OpenAI.
De toute évidence, le conseil d'administration a finalement estimé que le comportement d'Altman était plus préjudiciable, du moins au niveau de l'exercice de surveillance du conseil d'administration sur le développement d'AGI sécurisé.
Ils ont décidé de prendre un risque et de licencier leur PDG vedette, et ils ont dû le faire rapidement.
Une personne proche de la décision du conseil a déclaré :
Une fois que (Altman) aura le léger sentiment qu'il y a une chance que cela se produise, aussi petite soit-elle, il va tout mettre en œuvre.
Des conseils d'administration contraints de céder et leur "entêtement final"
Le 7 novembre, le conseil d'administration d'OpenAI a soudainement annoncé le licenciement d'Altman. L'annonce officielle disait :
Le départ de M. Altman est le résultat d'un examen approfondi par le conseil d'administration.
Le conseil d'administration estimait qu'il n'avait pas été franc dans ses communications avec le conseil d'administration et qu'il avait empêché le conseil d'administration de s'acquitter de ses fonctions.
Le conseil d’administration n’a plus confiance en lui pour continuer à diriger OpenAI.
Pour des raisons juridiques et de confidentialité, le conseil d'administration n'a pas divulgué les circonstances spécifiques derrière ce « manque de franchise ».
Ce poste vacant donne également à Altman la possibilité de raconter sa propre histoire.
Dès l'annonce du licenciement, l'ordinateur d'Altman a été verrouillé.
Il a commencé à chercher ses investisseurs et ses mentors et a dit à tout le monde qu’il allait créer une nouvelle entreprise d’IA.
L'un des premiers appels d'Altman a été Ron Conway, fondateur du fonds de capital-risque SVAngel. De l'avis de Conway, le conseil d'administration a licencié Altman pour « pinaillage, ce qui est loin de justifier son licenciement » :
Il serait imprudent et irresponsable pour un conseil d’administration de licencier un fondateur pour des raisons émotionnelles.
Au sein d’OpenAI, l’équipe était également mécontente du manque d’explications pour des raisons juridiques.
Jason Kwon, directeur de la stratégie d'OpenAI, a accusé le conseil d'administration de violer ses obligations fiduciaires :
Il vous est impossible de voir votre entreprise s’effondrer.
Toner n'a pu que répondre : "La destruction de l'entreprise peut aussi s'inscrire dans la mission du conseil d'administration."
Peu de temps après, après avoir entendu les menaces des employés selon lesquelles "si Altman ne revient pas, nous démissionnerons", le conseil d'administration a invité Altman dans l'entreprise pour discuter des prochaines étapes.
Il existe ici deux versions de l'histoire.
Dans l’explication d’Altman, le conseil d’administration l’a invité à nouveau pour le persuader de revenir chez OpenAI :
J'ai vécu beaucoup d'émotions.
Au début, j’étais très résistant, mais j’ai vite évolué vers un sens des responsabilités et j’ai voulu protéger quelque chose qui me tient à cœur.
Mais des personnes proches du conseil d'administration ont déclaré que l'offre faite par le conseil d'administration à l'époque consistait en fait à ce qu'Altman revienne et discute de la manière de stabiliser l'entreprise.
Au cours de la discussion, les deux parties ont discuté du moment et des informations à divulguer aux médias.
Altman a également proposé un jour des excuses publiques pour « l'incident du Toner », mais le conseil d'administration avait des doutes et craignait qu'une fois cela dit, tout cela ressemblerait davantage à une motivation du conseil d'administration à riposter contre Altman.
Derrière la lettre de démission apparemment affectueuse signée par 700 personnes, s’il y a de la loyauté, il y a aussi le facteur argent.
Selon le plan initial, les employés d'OpenAI seraient en mesure de vendre leurs actions dans l'entreprise évaluées à 86 milliards de dollars et de réaliser rapidement des liquidités peu après la démission d'Altman.
Mais si le retour d’Altman n’est pas négocié, OpenAI risque de s’effondrer et l’argent qu’il semble s’évaporer.
Dans l'application professionnelle Blind, qui nécessite une authentification du courrier électronique professionnel, un employé d'OpenAI a révélé que lorsque la lettre commune est apparue, il a dû la signer sous la pression énorme de ses collègues.
Certains employés n'étaient pas d'accord avec cette déclaration, affirmant : « La moitié de l'entreprise a signé à 2 ou 3 heures du matin. Ce n'est pas quelque chose que la pression des pairs peut faire. »
Il y avait un autre signal important dans la lettre commune de l'époque, à savoir que le nom du scientifique en chef d'OpenAI, Ilya Sutskever, figurait également sur la demande.
Jusque-là, Sutskever avait soutenu la décision du conseil d'administration de licencier Altman.
La veille de la parution de la lettre commune, Sutskever a rencontré Anna Brockma, l'épouse du président d'OpenAI Greg Brockman, dans les bureaux d'OpenAI. Lorsque Altman a été licencié, Greg a immédiatement emboîté le pas.
En 2019, Sutskever a accueilli le mariage d'Anna et Greg dans les bureaux d'OpenAI. À cette époque, le robot était chargé d'aider le marié à récupérer l'alliance.
Et cette nuit-là de novembre de cette année, Anna s'est approchée de Sutskever en pleurant, lui a pris le bras et l'a persuadé de reconsidérer sa décision de licencier Altman. Selon des sources proches du dossier, le visage de Sutskever était inexpressif à ce moment-là.
Nous n'avons aucun moyen de savoir quel genre de luttes a ensuite connu Sutskever, nous savons seulement que le lendemain, son nom figurait dans la lettre commune.
Quand Altman est revenu, Sutskever a posté sur X :
J'ai appris beaucoup de leçons au cours du mois dernier, dont l'une est que « si le moral ne s'améliore pas, les coups de fouet continueront » qui se produisent plus souvent qu'ils ne le devraient.
" Les passages à tabac continueront jusqu'à ce que le moral s'améliore. " L'ironie est un cercle vicieux : un moral bas entraîne une punition, et la punition aggrave encore ce moral bas.
Le message a été supprimé le lendemain de sa publication et l’avenir de Sutskever chez OpenAI est plein d’incertitudes.
Finalement, même si le retour d'Altman a été décidé, le conseil d'administration a également obtenu quelques concessions de l'autre partie.
Le conseil d'administration indépendant nouvellement formé supervisera la conduite d'Altman et enquêtera sur la décision du conseil précédent de le licencier. Ni Altman ni Greg n’obtiendront à nouveau un siège au conseil d’administration.
Bien que Toner et McCauley aient tous deux démissionné du conseil d'administration, le directeur d'origine Adam D'Angelo conservera son poste.
▲Adam D'Angelo
Un proche a déclaré que le maintien de D'Angelo avait été âprement combattu par les administrateurs sortants.
Ils veulent laisser quelqu’un dans l’entreprise qui comprend ce qui s’est passé ici.
Sources de référence :
TEMPS : PDG DE L'ANNÉE 2023 : Sam Altman
New York Times : Au cœur de la crise d'OpenAI concernant l'avenir de l'intelligence artificielle
Bloomberg : L'éviction d'Altman par OpenAI est le résultat de tensions prolongées
New Yorker : L'histoire intérieure du partenariat de Microsoft avec OpenAI
# Bienvenue pour suivre le compte public officiel WeChat d'aifaner : aifaner (ID WeChat : ifanr). Un contenu plus passionnant vous sera fourni dès que possible.
Ai Faner | Lien original · Voir les commentaires · Sina Weibo