Meta déploie sa propre version du mode vocal avancé lors de Connect 2024
Mercredi, lors de Meta Connect 2024, le PDG Mark Zuckerberg est monté sur scène pour discuter des dernières avancées de son entreprise en matière d'intelligence artificielle. Dans ce qu'il décrit comme « probablement la plus grande nouvelle que nous ayons en matière d'IA », Zuckerberg a dévoilé Natural Voice Interactions, un concurrent direct deGemini Live de Google et du mode vocal avancé d'OpenAI.
"Je pense que la voix sera un moyen bien plus naturel d'interagir avec l'IA que le texte", a commenté Zuckerberg. "Je pense que cela a le potentiel d'être l'un des moyens, sinon le plus fréquent, d'interagir avec l'IA." Zuckerberg a également annoncé que la nouvelle fonctionnalité serait déployée dès aujourd'hui auprès des utilisateurs sur toutes les principales applications de Meta, notamment Instagram, WhatsApp, Messenger et Facebook.
"Meta AI se différencie dans cette catégorie en offrant non seulement des modèles d'IA de pointe, mais également un accès illimité à ces modèles pour une intégration gratuite et facile dans nos différents produits et applications", a déclaré Zuckerberg. « Meta AI est en passe de devenir l’assistant IA le plus utilisé au monde. Nous en sommes à près de 500 millions d'actifs mensuels et nous n'avons même pas encore lancé nos produits dans certains des plus grands pays.
Comme avec Gemini Live et Advanced Voice Mode , Natural Voice Interactions permet aux utilisateurs de renoncer aux invites textuelles et de parler directement avec le chatbot. Les utilisateurs peuvent bégayer, se corriger, interrompre l’IA et généralement parler comme ils le feraient avec un autre humain tout en laissant le chatbot suivre la conversation. La nouvelle fonctionnalité permettra également aux utilisateurs de choisir la voix de l'IA et de choisir parmi une variété de célébrités, notamment John Cena, Dame Judy Dench, Kristen Bell, Keegan Michael Key et Awkwafina. Vous vous souvenez peut-être de cette programmation de la précédente incursion de Meta dans le chat en langage naturel, qui a été fermée en août parce que les utilisateurs trouvaient les interactions « effrayantes » et « surréalistes ».
Zuckerberg a fourni une démonstration en direct de la fonctionnalité sur scène, posant au chatbot une série de questions de softball auxquelles l'IA a répondu de manière satisfaisante. Sa cadence de parole semblait un peu guindée et moins conversationnelle que celle que nous avons vue avec le mode vocal avancé, mais elle était tout de même bien meilleure que les intonations monotones que vous obtiendriez d'une réponse Siri. Cependant, ce n’est que lorsque Zuckerberg a qualifié l’IA d’Awkwafina que ce journaliste a réalisé que c’était la voix de qui elle était censée être.
Les interactions vocales naturelles étaient « probablement la plus grande » nouvelle en matière d’IA annoncée mercredi, mais c’était loin d’être la seule annonce. Zuckerberg a également révélé que le modèle Llama de Meta a atteint la version 3.2 étant donné que le système est devenu multimodal. Llama 3.2 11B et 90B (en référence au nombre de paramètres sur lesquels chacun a été formé) peuvent désormais tous deux interpréter des tableaux et des graphiques, identifier les actifs dans les images et générer des légendes d'images.
Malheureusement, ces nouveaux modèles ne seront pas disponibles en Europe. Cela est dû à ce que Meta qualifie d'environnement réglementaire « imprévisible » de l'UE, qui empêche l'entreprise d'utiliser les données des Européens pour entraîner ses modèles d'IA. La société lance une paire de modèles extrêmement légers en Europe, baptisés Llama 3.2 1B et 3B, dont aucun n'a été formé sur des données européennes. Ces modèles sont conçus pour les smartphones et autres appareils de pointe.
Et pour des raisons apparemment insondables, Meta a également annoncé qu'elle testait une nouvelle fonctionnalité qui injecterait des images générées par l'IA – dont certaines peuvent inclure votre image – directement dans vos flux Facebook et Instagram. Ces images « Imaginées pour vous » inviteront les utilisateurs à partager l'image telle quelle ou à la parcourir dans l'application et en temps réel.
"Je pense qu'il y a eu cette tendance au fil du temps où les flux ont commencé comme du contenu principalement et exclusivement destiné aux personnes que vous suiviez, vos amis", a déclaré Zuckerberg à The Verge dans une récente interview . « Et vous ajoutez simplement à cela une couche de « D'accord, et nous allons également vous montrer du contenu généré par un système d'IA qui pourrait être quelque chose qui vous intéresse »… son ampleur est gentille. de dépendre de l’exécution et de sa qualité.