Le nouveau modèle d’IA Gemini 2.0 de Google est sur le point d’être partout

Logo Gémeaux 2.0
Google DeepMind

Moins d'un an après le lancement de Gemini 1.5 , la division DeepMind de Google était de retour mercredi pour dévoiler le modèle de nouvelle génération d'IA, Gemini 2.0. Le nouveau modèle offre une sortie image et audio native et « nous permettra de créer de nouveaux agents d’IA qui nous rapprochent de notre vision d’un assistant universel », a écrit la société dans son article de blog d’annonce .

Depuis mercredi, Gemini 2.0 est disponible à tous les niveaux d'abonnement, y compris gratuit. En tant que nouveau modèle d'IA phare de Google, vous pouvez vous attendre à le voir commencer à alimenter les fonctionnalités d'IA dans l'ensemble de l'écosystème de l'entreprise dans les mois à venir. Comme pour le modèle o1 d'OpenAI , la version initiale de Gemini 2.0 n'est pas la version complète de la société, mais plutôt une itération « d'aperçu expérimental » plus petite et moins performante qui sera mise à niveau dans Google Gemini dans les mois à venir.

"Effectivement", a déclaré Demis Hassabis, PDG de Google DeepMind, à The Verge , "c'est aussi bon que le modèle Pro actuel. Vous pouvez donc le considérer comme un niveau supérieur, pour la même rentabilité, la même efficacité et la même vitesse. Nous en sommes vraiment contents.

Google publie également une version allégée du modèle, baptisée Gemini 2.0 Flash, destinée aux développeurs.

Présentation de Gemini 2.0 | Notre modèle d'IA le plus performant à ce jour

Avec la sortie d'un modèle Gemini plus performant, Google fait progresser son programme d'agents d'IA, qui verrait des modèles plus petits et spécialement conçus agir de manière autonome au nom de l'utilisateur. Gemini 2.o devrait considérablement stimuler les efforts de Google pour déployer son projet Astra , qui combine les capacités conversationnelles de Gemini Live avec l'analyse de vidéos et d'images en temps réel pour fournir aux utilisateurs des informations sur leur environnement via une interface de lunettes intelligentes.

Google a également annoncé mercredi la sortie de Project Mariner , la réponse de l'entreprise à la fonctionnalité de contrôle informatique d'Anthropic . Cette extension Chrome est capable de commander un ordinateur de bureau, y compris les frappes au clavier et les clics de souris, de la même manière que les utilisateurs humains. La société déploie également un assistant de codage IA appelé Jules qui peut aider les développeurs à trouver et à améliorer le code maladroit, ainsi qu'une fonctionnalité de « recherche approfondie » qui peut générer des rapports détaillés sur les sujets que vous recherchez sur Internet.

Deep Research, qui semble remplir la même fonction que Perplextiy AI et ChatGPT Search, est actuellement disponible pour les abonnés Gemini Advanced en langue anglaise. Le système fonctionne en générant d’abord un « plan de recherche en plusieurs étapes », qu’il soumet à l’utilisateur pour approbation avant sa mise en œuvre.

Une fois que vous avez approuvé le plan, l'agent de recherche effectuera une recherche sur le sujet donné, puis descendra dans tous les terriers pertinents qu'il trouvera. Une fois la recherche terminée, l'IA régurgitera un rapport sur ce qu'elle a trouvé, y compris les principales conclusions et les liens de citation vers l'endroit où elle a trouvé ses informations. Vous pouvez le sélectionner dans le menu déroulant de sélection du modèle du chatbot en haut de la page d'accueil de Gemini.