La grande et nouvelle IA des opérateurs d’OpenAI a déjà des problèmes
OpenAI a annoncé jeudi son outil d'agent d'IA, appelé Operator , en avant-première de recherche, mais le lancement ne se fait pas sans quelques ratés mineurs.
La marque d'intelligence artificielle a présenté les fonctionnalités du nouvel outil dans une démo en ligne, expliquant qu'Operator est un Computer Using Agent (CUA) basé sur le modèle GPT-4o, qui permet des fonctions multimodales, telles que la possibilité de rechercher sur le Web et être capable de comprendre le raisonnement des résultats de recherche.
Cependant, ceux qui ont eu l'occasion de tester l'outil ont noté des critiques, une réactivité lente par rapport aux démos et des hallucinations proches du chatbot ChatGPT standard, selon Quartz .
De même, Bezingza a signalé que les plaintes de certains utilisateurs de X avaient attiré l'attention du PDG d'OpenAI, Sam Altman. Selon la publication, un utilisateur de X a partagé sur la plateforme des problèmes liés aux interactions d'Operation avec un site d'information. Le PDG aurait répondu, promettant une solution rapide au problème. Cependant, ce que l’utilisateur a vécu pourrait potentiellement être une hallucination.
Même si beaucoup sont fascinés par les fonctionnalités d'Operator présentées dans la démo de lancement d'OpenAI, le prix reste un frein important à l'expérimentation de l'agent IA. L'outil est disponible sous le niveau ChatGPT Pro d'OpenAI à 200 $ par mois , ce qui en fait une expérience plutôt exclusive.
L'écrivain de BGR, Chris Smith, a indiqué qu'il était abonné à ChatGPT Plus, mais a déclaré qu'il ne pouvait pas justifier de payer 200 $ par mois pour accéder à l'outil Operator. Cependant, OpenAI devrait à un moment donné amener Operator à ses niveaux ChatGPT Plus, Team et Enterprise.
L'une des plus grandes plaintes des utilisateurs est que l'opérateur n'est actuellement disponible qu'aux États-Unis. Les utilisateurs européens ont exprimé leur dédain de ne pas pouvoir accéder à l'outil.
ComputerWorld a également noté que les agents d'IA dans leur ensemble peuvent potentiellement introduire des risques de sécurité uniques, tels que l'utilisation d'écosystèmes automatisés pour lancer des attaques routières ou contourner les codes CAPTCHA. Alors qu'OpenAI insiste sur le fait qu'il dispose d'un verrou de sécurité sur l'opérateur, la publication s'est entretenue avec des chercheurs qui ont noté que la technologie pourrait entrer en conflit avec les moteurs de recherche, tels que Google, qui ont mis en place leurs propres stratégies de traitement des données pour leurs propres besoins.