Les nouveaux modèles Gemma 3 AI de Google sont rapides, économes et prêts pour les téléphones
Les efforts de Google en matière d'IA sont synonymes de Gemini, qui fait désormais également partie intégrante de ses produits les plus populaires à travers les logiciels et le matériel Worksuite. Cependant, la société a également publié plusieurs modèles d’IA open source sous le label Gemma depuis plus d’un an maintenant.
Aujourd'hui, Google a dévoilé ses modèles d'IA open source de troisième génération avec des affirmations impressionnantes. Les modèles Gemma 3 sont disponibles en quatre variantes – 1 milliard, 4 milliards, 12 milliards et 27 milliards de paramètres – et sont conçus pour fonctionner sur des appareils allant des smartphones aux postes de travail robustes.
Prêt pour les appareils mobiles

Google affirme que Gemma 3 est le meilleur modèle à accélérateur unique au monde, ce qui signifie qu'il peut fonctionner sur un seul GPU ou TPU au lieu de nécessiter un cluster entier. Théoriquement, cela signifie qu'un modèle Gemma 3 AI peut fonctionner de manière native sur l'unité Tensor Processing Core (TPU) du smartphone Pixel, tout comme il exécute le modèle Gemini Nano localement sur les téléphones .
Le plus grand avantage de Gemma 3 par rapport à la famille Gemini de modèles d'IA est que, comme il est open source, les développeurs peuvent le conditionner et l'expédier en fonction de leurs besoins uniques dans les applications mobiles et les logiciels de bureau. Un autre avantage crucial est que Gemma prend en charge plus de 140 langues, dont 35 font partie d'un package pré-entraîné.
Et tout comme les derniers modèles de la série Gemini 2.0 , Gemma 3 est également capable de comprendre du texte, des images et des vidéos. En un mot, c’est multi-multimédia. Du côté des performances, Gemma 3 est censé surpasser d'autres modèles d'IA open source populaires tels que DeepSeek V3 , l'OpenAI o3-mini prêt à raisonner et la variante Llama-405B de Meta.
Polyvalent et prêt à déployer
En ce qui concerne la plage d'entrée, Gemma 3 propose une fenêtre contextuelle d'une valeur de 128 000 jetons. C'est suffisant pour couvrir un livre complet de 200 pages proposé en entrée. À titre de comparaison, la fenêtre contextuelle du modèle Gemini 2.0 Flash Lite de Google s'élève à un million de jetons. Dans le contexte des modèles d’IA, un mot moyen en anglais équivaut à peu près à 1,3 token.

Gemma 3 prend également en charge les appels de fonctions et la sortie structurée, ce qui signifie essentiellement qu'il peut interagir avec des ensembles de données externes et effectuer des tâches comme un agent automatisé. L'analogie la plus proche serait Gemini, et la façon dont il peut travailler de manière transparente sur différentes plates-formes telles que Gmail ou Docs.
Les derniers modèles d'IA open source de Google peuvent être déployés localement ou via les plates-formes cloud de l'entreprise telles que la suite Vertex AI. Les modèles Gemma 3 AI sont désormais disponibles via Google AI Studio, ainsi que des référentiels tiers tels que Hugging Face, Ollama et Kaggle.

Gemma 3 fait partie d'une tendance du secteur dans laquelle les entreprises travaillent sur des modèles de langage étendus (Gemini, dans le cas de Google) et proposent simultanément des modèles de langage réduits (SLM). Microsoft suit également une stratégie similaire avec sa série open source Phi de petits modèles de langage.
Les petits modèles de langage tels que Gemma et Phi sont extrêmement économes en ressources, ce qui en fait un choix idéal pour fonctionner sur des appareils tels que les smartphones. De plus, comme ils offrent une latence plus faible, ils sont particulièrement bien adaptés aux applications mobiles.