Tout à l’heure, OpenAI a publié o3-pro, le modèle open source a été retardé et Ultraman a publié un long article : Gentle Singularity

ChatGPT a été en panne pendant toute une nuit et les internautes du monde entier étaient dans le chaos.

La solution d'OpenAI était également quelque peu atypique. Alors qu'elle était occupée à corriger des bugs, elle a soudainement lancé le modèle o3-pro.

À partir d'aujourd'hui, o3-pro sera d'abord disponible pour les utilisateurs Pro et Team, remplaçant l'o1-pro d'origine dans le sélecteur de modèles, tandis que les utilisateurs Enterprise et Edu devront attendre la semaine prochaine.

Tout ce que je peux dire, c'est que la vie des utilisateurs de Plus est aussi une vie.

o3-pro est là, plus puissant, mais aussi plus lent

En tant que version améliorée du modèle de raisonnement o3, o3-pro est plus performant dans la gestion de problèmes complexes et donne des réponses plus précises, en particulier dans des scénarios tels que la recherche scientifique, la programmation, l'éducation et l'écriture, où il présente des avantages évidents.

De plus, il prend également en charge l'appel de l'ensemble complet d'outils de ChatGPT, tels que la recherche Web, l'analyse de fichiers, le raisonnement d'image, la programmation Python, la personnalisation de la mémoire, etc., avec des capacités d'exécution et d'intégration globales plus solides.

Bien sûr, avec plus de fonctions, la vitesse de réponse a également un peu ralenti.

Étant donné que la planification des tâches et les appels de chaîne d'outils sont plus compliqués, la vitesse de réponse d'o3-pro est généralement plus longue que celle d'o1-pro, il est donc plus adapté à une utilisation dans des scénarios où vous devez réfléchir attentivement ou avoir des exigences élevées en matière de précision de la réponse.

Dans l'évaluation officielle des experts, les examinateurs ont généralement estimé que o3 Pro allait plus loin que le modèle o3 en termes de clarté d'expression, d'exhaustivité des réponses, de capacité d'exécution des instructions et de précision logique, et était particulièrement adapté aux tâches qui nécessitent une production approfondie, telles que les sciences, l'éducation, la programmation, les affaires et l'écriture.

Les évaluations académiques l'ont également confirmé, les performances globales d'o3-pro surpassant systématiquement celles d'o1-pro et d'o3.

Afin d'évaluer de manière plus scientifique la stabilité du modèle, OpenAI a introduit la norme d'évaluation des « quatre bonnes réponses » : ce n'est que lorsque le modèle donne la bonne réponse quatre fois de suite qu'il est considéré comme réussi.

On peut dire que ce mécanisme a considérablement augmenté les exigences de cohérence du raisonnement.

Il est à noter qu'o3 Pro n'a pas publié de carte système distincte cette fois-ci. OpenAI a indiqué que, puisque o3-pro et o3 utilisent le même modèle sous-jacent, la description complète de la sécurité est disponible dans la carte système o3.

Cependant, o3 Pro présente encore certaines limitations fonctionnelles, notamment l'absence de prise en charge des conversations temporaires, de la génération d'images et des fonctions Canvas. Pour générer des images, les utilisateurs doivent toujours utiliser les modèles GPT-4o, o3 ou o4-mini.

Avant le lancement officiel, certains développeurs ont bénéficié d'un accès anticipé à o3 Pro.

Ben Hylak, ancien ingénieur logiciel de SpaceX et concepteur d'Apple visionOS, a eu un accès anticipé à o3-pro la semaine dernière, et son expérience a également été republiée par le PDG d'OpenAI, Sam Altman, sur les réseaux sociaux.

Plus précisément, Ben et son cofondateur Alexis ont pris le temps de compiler toutes les notes des réunions de planification passées de Raindrop, les objectifs et même les mémos vocaux, puis ont demandé à o3-pro d'essayer de générer un document de planification stratégique.

Les résultats du modèle final les ont surpris : le contenu était clair et la structure complète. Non seulement il couvrait les objectifs et les échéances, mais il classait automatiquement les priorités et indiquait clairement les contenus à supprimer.

Selon Ben, quelle que soit la puissance du modèle, s'il ne peut pas être intégré dans l'environnement de travail réel, il lui sera difficile de devenir un « membre » véritablement utile.

L'o3 Pro a apporté des améliorations significatives dans la compréhension des environnements complexes, l'expression des capacités des outils, la formulation de questions pertinentes et l'allocation judicieuse des ressources. Bien que le modèle présente parfois un problème de « sur-réflexion » en raison d'un manque de contexte, ses performances globales sont nettement supérieures à celles de la version précédente.

▲o3 pro (à gauche) vs o3 (à droite) : o3 pro comprend clairement mieux ses propres limites et capacités.

En comparaison avec des modèles similaires, Ben a salué le fait que même si le Claude Opus a un fort sentiment de taille, ses performances réelles sont médiocres ; tandis que le o3-pro est plus pratique et appartient à « une dimension complètement différente ».

Dans la version classique améliorée du défi de la balle rebondissante hexagonale, le blogueur @flavioAd estime que l'o3-pro est le premier modèle capable de gérer presque parfaitement l'effet de collision réel entre la balle et le mur.

ARC-AGI est un cadre de référence utilisé pour évaluer si les modèles linguistiques ont des capacités de raisonnement de type intelligence artificielle générale (AGI).

Il est conçu pour tester les capacités de raisonnement abstrait et de résolution de problèmes du système d'IA face à de nouveaux problèmes, de la même manière que la capacité des humains à s'adapter rapidement et à trouver des solutions face à de nouvelles situations.

Les derniers résultats des tests sont les suivants :

Comme vous pouvez le voir, o3-pro est légèrement plus performant sur les tâches difficiles, mais l'amélioration n'est pas significative et le coût augmente avec la difficulté.

L'entreprise est la deuxième courbe, o3-pro est une nouvelle pierre angulaire

Lors de la sortie d'o3-pro, le PDG d'OpenAI, Sam Altman, a également annoncé une nouvelle majeure sur la plateforme sociale : le prix du modèle o3 a chuté de 80 %.

Actuellement, le modèle o3 facture 2 $ par million de jetons en entrée et 8 $ par million de jetons en sortie.

Kevin Weil, directeur des produits d'OpenAI, a écrit qu'en raison des nombreux retours des utilisateurs, la limite du taux d'utilisation du modèle o3 pour les utilisateurs Plus sera doublée et que l'ajustement est progressivement mis en œuvre.

En revanche, o3-pro facture 20 $ par million de jetons en entrée et 80 $ par million de jetons en sortie, ce qui est 87 % moins cher que o1-pro.

OpenAI recommande d'activer le « mode arrière-plan » lors de l'utilisation d'o3-pro : les tâches qui prennent beaucoup de temps seront démarrées de manière asynchrone pour éviter les problèmes de délai d'expiration des requêtes.

Les responsables ont expliqué que cette baisse de prix importante s'explique par l'optimisation complète de l'architecture du service d'inférence d'OpenAI. Le modèle n'a pas changé, mais l'inférence est plus efficace ; le prix a donc été ajusté à la baisse en conséquence.

D’autre part, il pourrait être indissociable des nouveaux développements d’OpenAI en matière de ressources informatiques.

Depuis la sortie de ChatGPT, la limitation des ressources informatiques a toujours été un problème majeur pour OpenAI. En raison des restrictions imposées par l'accord contraignant de Microsoft, le service cloud Azure était le seul fournisseur d'infrastructure de centre de données pour ChatGPT.

Selon Reuters, citant trois personnes proches du dossier, dans les premières heures de la matinée, afin d'alléger la pression informatique, OpenAI a conclu le mois dernier un accord de coopération avec Alphabet (la société mère de Google) pour introduire Google Cloud comme fournisseur de services cloud supplémentaire.

Une telle coopération est à la fois inattendue et raisonnable.

D'un côté, ChatGPT est l'une des plus grandes menaces pour l'activité de recherche de Google ces dernières années, et Google Cloud est désormais devenu son nouveau soutien.

En revanche, les ventes de Google Cloud atteindront 43 milliards de dollars en 2024, soit 12 % du chiffre d'affaires d'Alphabet. Par conséquent, afin de surpasser Amazon et Microsoft sur le marché du cloud computing, Google Cloud s'est engagé à jouer le rôle de « fournisseur neutre de puissance de calcul ».

La conclusion de cette coopération constituera un atout majeur pour Google Cloud. Au moment de la mise sous presse, OpenAI, Google et Microsoft n'avaient pas commenté ce rapport.

Dans le même temps, OpenAI accélère le déploiement de réseaux d’infrastructures d’IA dans le monde entier.

Plus tôt cette année, OpenAI a également fait progresser le projet Stargate de 500 milliards de dollars avec SoftBank et Oracle, et a signé un accord d'approvisionnement en puissance de calcul de plusieurs milliards de dollars avec CoreWeave.

Un investissement important est synonyme de rendements élevés. Selon les médias étrangers de cette semaine, l'an dernier, le revenu récurrent annuel d'OpenAI s'élevait à environ 5,5 milliards de dollars américains, et il dépasse aujourd'hui les 10 milliards de dollars américains, soit une augmentation de près de 80 %.
Il convient de noter que ces 10 milliards de dollars ne comprennent que les produits grand public, les produits payants ChatGPT et les revenus des API, et n'incluent pas les revenus de licences de Microsoft ni les autres transactions importantes. Dans le monde des affaires, l'ARR désigne le revenu annuel récurrent qu'une entreprise perçoit grâce à des services d'abonnement ou des contrats à long terme. Il reflète un flux de revenus prévisible et continu et est souvent utilisé pour mesurer la santé et le potentiel de croissance des entreprises utilisant un modèle d'abonnement.

En termes simples, une entreprise proposant des logiciels en tant que service (SaaS) a conclu un contrat d'abonnement avec un client payant 1 000 yuans par an. Si le nombre de clients est de 100, le taux de rentabilité annuel de l'entreprise est de 1 000 yuans × 100 = 100 000 yuans.

La semaine dernière, Brad Lightcap, directeur de l'exploitation d'OpenAI, a également révélé qu'OpenAI comptait actuellement 3 millions d'utilisateurs commerciaux payants, contre 2 millions en février. On peut donc dire qu'OpenAI se porte actuellement très bien.

Tout en réduisant le coût des modèles de base grâce à o3 et en améliorant la capacité à résoudre des problèmes complexes avec o3-pro, OpenAI cible des scénarios à forte valeur ajoutée et tente d'ouvrir une voie entre les deux extrémités de la prochaine courbe de croissance : les services aux entreprises.

Les modèles les plus puissants du monde sont publiés les uns après les autres, et OpenAI est également l'un d'entre eux dans cette vague d'IA.

Avec des modèles plus puissants, une puissance de calcul plus stable et des appels d'outils plus abondants, ChatGPT n'est plus seulement un chatbot, mais un partenaire de productivité conçu pour prendre en charge le scénario d'application le plus productif, le lieu de travail.

o3-pro est une nouvelle pierre angulaire sur cette route.

Reste à savoir si ce projet pourra soutenir l'ambition d'OpenAI. Mais au moins, il a incité les gens à le réinventer.

Le modèle sera open source, mais pas en juin

Tout à l'heure, Sam Altman a déclaré sur les réseaux sociaux qu'OpenAI prévoyait de publier un modèle open source avec des pondérations publiques plus tard cet été, plutôt qu'en juin.

De plus, Altman vient de lancer son nouveau blog personnel, The Gentle Singularity, qui explore l’impact du développement de l’IA sur la société humaine, et souligne que ce sera peut-être le dernier article qu’il écrira sans l’aide de l’IA.

Selon lui, du point de vue de la relativité, les singularités se produisent petit à petit, tandis que la fusion progresse lentement.

Ci-joint l'adresse originale du blog : https://blog.samaltman.com/the-gentle-singularity

Douce singularité

Nous avons franchi l’horizon des événements, le décollage a commencé, l’humanité est proche de construire une superintelligence numérique, et du moins jusqu’à présent, ce n’est pas aussi étrange qu’il y paraît.

Les robots ne sont pas encore omniprésents dans la rue, et la plupart des gens n'interagissent pas avec l'IA toute la journée. Des maladies continuent de tuer, les voyages dans l'espace restent difficiles et notre compréhension de l'univers reste très limitée.

Néanmoins, nous avons récemment construit des systèmes plus intelligents que les humains à bien des égards, capables d'amplifier considérablement la productivité humaine. Les aspects les plus improbables ont déjà été accomplis : les avancées scientifiques qui ont permis la création de systèmes comme GPT-4 et o3 ont été durement gagnées, mais elles nous mèneront bien plus loin.

L'IA contribuera au monde de multiples façons, mais les améliorations qu'elle apportera à la qualité de vie, en accélérant le progrès scientifique et en augmentant la productivité, seront considérables ; l'avenir promet d'être bien meilleur que le présent. Le progrès scientifique est le principal moteur du progrès global ; il est passionnant de penser à tout ce que nous avons encore le potentiel d'accomplir.

D'une certaine manière, ChatGPT est déjà plus puissant que quiconque dans l'histoire. Des centaines de millions de personnes l'utilisent chaque jour, et les tâches deviennent de plus en plus importantes ; une petite fonctionnalité supplémentaire peut avoir un impact positif considérable, tandis qu'une infime incompatibilité peut également avoir un impact négatif considérable lorsqu'elle est utilisée par des centaines de millions de personnes.

En 2025, nous verrons apparaître des agents intelligents capables d'effectuer un véritable travail cognitif ; la façon dont nous écrivons du code informatique sera révolutionnée. En 2026, nous verrons probablement apparaître des systèmes capables de générer des informations originales. En 2027, peut-être des robots capables d'effectuer des tâches dans le monde réel.

De plus en plus de personnes seront capables de créer des logiciels et des œuvres d'art. Mais la demande mondiale pour ces deux domaines augmentera également de manière spectaculaire. Les experts qui adopteront ces nouveaux outils seront probablement encore bien meilleurs que les novices. Globalement, une personne accomplira bien plus en 2030 qu'en 2020, et le changement sera radical, et de nombreuses personnes apprendront à en tirer profit.

Sur le plan le plus important, les années 2030 ne marqueront peut-être pas un changement radical. Les gens continueront d'aimer leur famille, de laisser libre cours à leur créativité, de jouer et de nager dans les lacs.

Mais sur d'autres points importants, les années 2030 seront probablement très différentes de toutes les précédentes. Nous ignorons les limites de l'intelligence humaine, mais nous sommes sur le point de les découvrir.

D'ici les années 2030, l'intelligence et l'énergie – les idées et la capacité de les concrétiser – deviendront extrêmement abondantes. Ces deux éléments ont longtemps constitué les limites fondamentales du progrès humain ; si l'intelligence et l'énergie étaient abondantes (et si la gouvernance était bonne), nous pourrions théoriquement tout accomplir.

Nous vivons désormais avec une intelligence numérique incroyable, et passé le choc initial, la plupart des gens s'y sont habitués. Nous passerons bientôt de l'émerveillement devant la capacité de l'IA à écrire de beaux paragraphes à l'espoir qu'elle écrive des romans entiers ; de l'émerveillement devant sa capacité à diagnostiquer des maladies à l'espoir qu'elle développe des remèdes ; de l'émerveillement devant sa capacité à écrire de petits programmes à l'espoir qu'elle puisse créer des entreprises entières. C'est ainsi que fonctionne la Singularité : les miracles deviennent routiniers, puis le point de départ.

Les scientifiques nous ont indiqué travailler deux à trois fois plus efficacement qu'auparavant. L'une des principales raisons de l'importance de l'IA avancée est qu'elle permet d'accélérer la recherche en IA elle-même. Nous pourrions découvrir de nouveaux matériaux informatiques, de meilleurs algorithmes et des possibilités encore plus inexplorées. Si nous parvenons à boucler dix années de recherche en un an, voire un mois, le rythme des progrès sera évidemment très différent.

Désormais, les outils dont nous disposons nous permettront de découvrir davantage de connaissances scientifiques et de créer des systèmes d'IA plus avancés. Bien sûr, il ne s'agit pas encore d'une IA mettant à jour son code de manière totalement autonome, mais il s'agit bel et bien d'une première forme d'« auto-amélioration récursive ».

D'autres cycles auto-alimentés sont en cours. La valeur économique de l'IA alimente le moteur de la construction des infrastructures, et de plus en plus de ressources sont utilisées pour faire fonctionner ces puissants systèmes d'IA. Et les robots capables de construire d'autres robots (et, d'une certaine manière, les centres de données capables de construire d'autres centres de données) ne sont pas loin.

Si nous devions construire le premier million de robots humanoïdes de manière traditionnelle, mais qu’ils pouvaient ensuite prendre en charge l’ensemble de la chaîne d’approvisionnement — l’extraction et le raffinage des minéraux, la conduite de camions, la gestion des usines, etc. — et construire davantage de robots, d’usines de puces et de centres de données, le rythme des progrès serait très différent.

À mesure que la production des centres de données s'automatise, le coût de l'intelligence devrait à terme approcher celui de l'électricité. (Nombreux sont ceux qui s'inquiètent de la consommation d'énergie de ChatGPT par requête ; une requête moyenne consomme environ 0,34 wattheure, soit à peu près l'équivalent d'un four allumé pendant un peu plus d'une seconde ou d'une ampoule basse consommation pendant quelques minutes. De plus, chaque requête consomme environ 0,000085 gallon d'eau, soit environ un quinzième de cuillère à café.)

Le rythme du progrès technologique continuera de s'accélérer, et les humains font preuve d'une grande adaptabilité. Si des défis majeurs se présenteront, comme la disparition de catégories entières d'emplois, la richesse mondiale augmentera si rapidement que nous aurons l'occasion d'envisager sérieusement de nouvelles politiques auparavant impossibles. Nous ne pourrons peut-être pas établir un nouveau contrat social d'un seul coup, mais nous constaterons, des décennies plus tard, que l'accumulation de changements progressifs a engendré une transformation profonde.

Si l'histoire nous guide, nous trouverons toujours de nouvelles activités, de nouveaux désirs et nous adapterons rapidement aux nouveaux outils (les changements professionnels après la révolution industrielle en sont un bon exemple). Les attentes des individus augmenteront, mais leurs capacités progresseront aussi rapidement, et nos vies s'amélioreront. Nous créerons de plus en plus de merveilles les uns pour les autres. Les humains disposent d'un avantage important et durable sur l'IA : nous nous soucions naturellement des autres, de leur façon de penser et d'agir, tandis que nous n'éprouvons aucune émotion pour les machines.

Si un agriculteur de subsistance, il y a mille ans, avait vu notre mode de vie actuel, il aurait pensé que nous faisions de « faux boulots », comme si nous nous amusions simplement grâce à l'abondance de nourriture et à un luxe inimaginable. J'espère que nous verrons ces emplois du même œil dans mille ans – comme « très faux », mais ces personnes considéreront sans aucun doute leur travail comme extrêmement important et épanouissant.

De nombreux miracles se produiront à l'avenir. Difficile d'imaginer les avancées que nous réaliserons d'ici 2035. Nous pourrions résoudre des problèmes de physique des hautes énergies cette année et coloniser l'espace l'année prochaine. Ou bien, nous pourrions réaliser une avancée majeure en science des matériaux cette année et mettre au point une véritable interface cerveau-ordinateur à haut débit. Nombreux seront ceux qui choisiront de continuer à vivre comme ils le font actuellement, mais certains choisiront certainement de se « connecter au système ».

À l'avenir, ces choses peuvent paraître inimaginables aujourd'hui. Mais une fois vécues, elles peuvent être étonnantes, tout en restant sous contrôle. Du point de vue de la relativité, la singularité se produit progressivement et la convergence est graduelle. Nous gravissons ce long arc de croissance exponentielle de la technologie ; on a toujours l'impression d'une verticale abrupte lorsqu'on regarde vers l'avenir, et d'une ligne plate lorsqu'on regarde vers le passé, mais c'est en réalité une courbe lisse. (Si l'on se souvient de 2020, si l'on avait dit alors que nous serions proches de l'IAG en 2025, cela aurait semblé fou, mais comparée à tout ce qui s'est passé ces cinq dernières années, la prédiction actuelle ne l'est peut-être pas autant.)

Bien sûr, nous sommes encore confrontés à de nombreux défis majeurs. Nous devons résoudre les problèmes de sécurité aux niveaux technique et social, mais ensuite, le plus important est de garantir que la superintelligence soit largement accessible, car elle est liée à la structure économique. La meilleure voie à suivre pourrait inclure les étapes suivantes :

Premièrement, nous devons résoudre le « problème d’alignement », c’est-à-dire que nous pouvons garantir que le système d’IA puisse apprendre et réaliser nos véritables souhaits collectifs à long terme (les médias sociaux sont un exemple d’échec d’alignement : les algorithmes de recommandation sont très efficaces pour vous inciter à continuer à faire défiler, mais ils le font en exploitant les préférences à court terme du cerveau pour supprimer vos objectifs à long terme).

Ensuite, il faut s'attacher à rendre la superintelligence abordable, omniprésente et affranchie du contrôle centralisé d'un seul individu, d'une seule entreprise ou d'un seul pays. La société est résiliente, créative et capable de s'adapter rapidement. Si nous parvenons à libérer la volonté et la sagesse collectives, nous apprendrons et nous adapterons rapidement, malgré les erreurs et les perturbations, afin de maximiser les bénéfices et de minimiser les risques. Il sera essentiel d'offrir davantage de liberté aux utilisateurs dans le cadre général défini par la société. Plus tôt le monde entamera un débat sur ces cadres et sur la définition de l'« alignement collectif », mieux ce sera.

Nous (l'ensemble du secteur, pas seulement OpenAI) construisons un « cerveau » pour le monde. Ce cerveau sera hautement personnalisé et facile à utiliser pour tous ; ses limites seront déterminées par nos bonnes idées. Pendant longtemps, la communauté technologique s'est moquée de ces « créateurs d'idées », ceux qui ont une idée mais ne parviennent pas à la concrétiser. Il semble désormais que leur heure soit enfin venue.

OpenAI représente aujourd'hui bien des choses, mais reste fondamentalement une entreprise de recherche sur la superintelligence. Il nous reste encore beaucoup de travail, mais la voie est tracée et les ténèbres s'éloignent rapidement. Nous sommes extrêmement reconnaissants de pouvoir y parvenir.

« Les smartphones sont presque gratuits » est presque là. Cela peut paraître fou, mais si nous vous disions en 2020 que nous y parviendrions en 2025, ce serait encore plus fou que si nous prédisions 2030 aujourd'hui.

Puissions-nous avancer en douceur, de manière exponentielle et constante vers l’ère de la superintelligence.

#Bienvenue pour suivre le compte public officiel WeChat d'iFanr : iFanr (ID WeChat : ifanr), où du contenu plus passionnant vous sera présenté dès que possible.

iFanr | Lien original · Voir les commentaires · Sina Weibo