OpenAI ouvre l’accès des développeurs au modèle de raisonnement o1 complet
Le neuvième jour du blitz de presse des fêtes d'OpenAI, la société a annoncé qu'elle publiait la version complète de son modèle de raisonnement o1 pour sélectionner les développeurs via l'API de la société. Jusqu'à l'annonce de mardi, les développeurs ne pouvaient accéder qu'au modèle o1-preview, moins performant.
Selon la société, le modèle o1 complet commencera à être déployé auprès des personnes appartenant à la catégorie des développeurs « Tier 5 » d'OpenAI. Il s'agit d'utilisateurs qui possèdent un compte depuis plus d'un mois et qui dépensent au moins 1 000 $ auprès de l'entreprise. Le nouveau service est particulièrement coûteux pour les utilisateurs (en raison des ressources de calcul supplémentaires requises par o1), coûtant 15 $ pour chaque (environ) 750 000 mots analysés et 60 $ pour chaque (environ) 750 000 mots générés par le modèle. Cela représente trois à quatre fois le coût d'exécution des mêmes tâches avec GPT-4o .
À ces prix, OpenAI s'est assuré d'améliorer les capacités complètes du modèle par rapport à l'itération de prévisualisation. Le nouveau modèle o1 est plus personnalisable que son prédécesseur (son nouveau paramètre «reasoning_effort» dicte la durée pendant laquelle l'IA réfléchit à une question donnée) et propose des appels de fonctions, des messages aux développeurs et une analyse d'image, qui manquaient tous dans l'aperçu o1.
La société a également annoncé qu'elle intégrait ses modèles GPT-4o et 4o-mini dans son API en temps réel, conçue pour les applications d'IA vocale à faible latence (comme Advanced Voice Mode ). L'API prend également désormais en charge WebRTC, le standard ouvert du secteur pour le développement d'applications d'IA vocale dans les navigateurs Web. Préparez-vous donc à ce que de nombreux autres sites Web tentent de vous parler d'ici 2025.
"Notre intégration WebRTC est conçue pour permettre des interactions fluides et réactives dans des conditions réelles, même avec une qualité de réseau variable", a écrit OpenAI dans son annonce. "Il gère l'encodage audio, le streaming, la suppression du bruit et le contrôle de la congestion."
Jusqu'à présent, OpenAI a, dans le cadre de l'événement diffusé en direct, dévoilé la version complète de o1 (en plus de l'annonce de mardi), publié son modèle de génération vidéo Sora , lancé sa nouvelle fonctionnalité Projets et fourni plusieurs mises à jour de son Canvas , Search. et fonctionnalités du mode vocal avancé .
À seulement trois jours de la finale de l'événement, que va montrer OpenAI ensuite ? Nous devrons attendre et voir.