L’application secrète de Google offre un aperçu de la meilleure façon dont l’IA est utilisée sur un téléphone

L'avenir de l'IA sur smartphone réside dans l'appareil. Ou alors, il faut impérativement déployer autant de processus d'IA que possible localement. Pourquoi ? Eh bien, pas besoin de connexion internet pour accomplir ce travail. Qu'il s'agisse de demander à un chatbot de relire et de corriger des fautes de grammaire, d'effectuer une brève recherche, de retoucher des images ou d'expliquer le monde qui vous entoure grâce à l'appareil photo.

Deuxièmement, aucune de vos données personnelles n'a besoin de quitter l'appareil pour être traitée sur un serveur distant. Et troisièmement, le processus sera plus rapide. Plus un modèle est petit, plus il peut produire des résultats rapidement. C'est une situation délicate. Un modèle d'IA léger implique des capacités limitées.

Un modèle d'IA plus imposant, comme Gemini ou ChatGPT , peut comprendre du texte, des images, de l'audio et même générer des vidéos. Ce sont des modèles volumineux qui nécessitent une puissance de traitement considérable sur des puces personnalisées. En résumé, une connexion internet est nécessaire pour y parvenir. Mais quelque chose de vraiment intéressant se prépare, et ce quelque chose vient de Google.

En quoi consiste cette application d’IA ?

Il y a quelques mois, l'entreprise a lancé une application appelée Google AI Edge Gallery. Après être restée un temps sur GitHub, elle a finalement fait son apparition sur le Play Store . Idéalement, cette application s'adresse aux développeurs souhaitant créer des expériences d'IA au sein de leurs applications, mais vous pouvez l'essayer sans vous ruiner.

C'est un peu comme une place de marché ou un magasin. Mais au lieu de chercher des applications, vous pouvez choisir des modèles d'IA à exécuter sur votre téléphone. Si vous achetez un téléphone Android aujourd'hui, comme le Pixel 10 Pro, toutes les fonctionnalités d'IA sont optimisées par Gemini. Vous pouvez télécharger séparément des applications comme ChatGPT ou Claude, mais elles nécessitent toutes une connexion internet et envoient vos données à des serveurs.

Google AI Edge Gallery est spécialement conçu pour exécuter des modèles d'IA hors ligne. Ainsi, si vous souhaitez interpréter une image ou résumer un long rapport, vous pouvez le faire hors ligne. Et le meilleur dans tout ça ? Vous pouvez utiliser le modèle d'IA de votre choix, sans installer d'application dédiée.

En bref, cette application est un guichet unique pour exécuter des expériences d'IA, entièrement gratuite et sans connexion internet. Pourquoi faire cela ? Plusieurs situations me viennent à l'esprit.

En quoi cette application est-elle utile ?

Imaginons que vous atteigniez votre limite de données mobiles, que vous vous trouviez dans un endroit avec une connexion internet limitée, voire inexistante, ou que vous ne souhaitiez tout simplement pas transmettre de rapports confidentiels à une IA en ligne. Vous préférez peut-être une IA spécialisée, capable d'effectuer une tâche spécifique, comme transformer un fichier PDF en un document d'une page avec puces, ou encore transmettre des images et demander à une IA de rédiger des documents académiques à partir de celles-ci.

Pour tous ces scénarios, et bien d'autres, vous pouvez simplement utiliser Google AI Edge Gallery, exécuter le modèle d'IA de votre choix et commencer à travailler. Actuellement, tous les modèles compatibles dont vous avez besoin sont téléchargeables depuis la bibliothèque communautaire HuggingFace LiteRT .

Vous trouverez ici des modèles d'IA assez puissants développés par Google dans la série Gemma. Ces modèles offrent des fonctionnalités multimodales, ce qui signifie qu'ils peuvent générer du texte, des images et de l'audio. Vous pouvez également expérimenter avec d'autres modèles d'IA, tels que DeepSeek, SmolVLM, Phi-4 Mini de Microsoft et Llama de Meta.

Voici maintenant un bref aperçu technique. Tous les modèles d'IA disponibles pour Google AI Edge Gallery sont optimisés pour l'environnement d'exécution haute performance LiteRT, spécialement conçu pour les tâches d'IA sur appareil. Tout comme les modèles d'IA mentionnés précédemment, LiteRT est un environnement d'exécution open source pour les grands modèles de langage (LLM).

Si vous maîtrisez des outils comme TensorFlow ou PyTorch, vous pouvez même importer n'importe quel modèle d'IA compact stocké sur votre PC. Mais vous devez d'abord convertir les fichiers au format .litertlm ou .task. Ensuite, il vous suffit de transférer le package dans le dossier « téléchargements » de votre téléphone et de l'importer dans la galerie Google AI Edge en quelques clics.

Comment est l'expérience?

J'ai surtout testé le modèle Gemma 3n, car il est le plus polyvalent du lot. Outre le chat, il peut également traiter des images et générer du son. Vous pouvez choisir si un modèle fonctionne sur CPU ou GPU, ajuster l'échantillonnage et la température.

En termes simples, cette dernière mesure la diversité des réponses d'une IA. Une température plus basse produit des résultats plus prévisibles, définitifs et légèrement répétitifs. Une température plus élevée produit des réponses plus précises, mais avec un apport créatif supplémentaire et des risques d'erreur plus élevés.

Il n'est pas nécessaire de jouer trop avec ces champs. Il suffit d'expérimenter la performance d'un modèle d'IA sur CPU ou GPU en termes de taux de réponse, et de maintenir cette performance. J'ai testé environ neuf modèles, et les résultats sont mitigés.

Commençons par les différences. J'ai partagé une photo de mon chat et demandé à Gemini d'identifier l'espèce. Il l'a fait en trois secondes. Lorsque la même requête a été envoyée à Gemma 3n, cela a pris 11 secondes. La réponse était précise, mais un peu courte. Si vous préférez des réponses concises, cette approche pourrait même vous plaire. Il peut arriver que vous rencontriez des erreurs, notamment avec les requêtes multimodales ; il est donc conseillé de modifier l'accélérateur (CPU et GPU) pour voir si cela accélère le processus.

De même, le traitement de texte peut être un peu lent. Lorsque j'ai soumis un article d'environ 900 mots et demandé au modèle Qwen 2.5 d'AliBaba de le résumer sous forme de puces, il a fallu environ 20 secondes pour démarrer. Le Phi-4 mini de Microsoft était nettement plus rapide, mais j'ai préféré la mise en forme soignée de Qwen 2.5.

Le modèle Gemma 3n-E2B s'est montré le plus rapide et a fourni la réponse la plus qualitative en moins de huit secondes. Le modèle Gemma-3n-E4B, plus puissant, a réussi à reformater et à formaliser le ton du même article en environ sept secondes, tout en fonctionnant sur le processeur.

La transcription audio, bien que limitée à des extraits de 30 secondes, est tout simplement fantastique. Le modèle Gemma 3n-E2B de Google n'a commis aucune erreur et a parfaitement résumé l'extrait audio transcrit. Tout cela en moins de 10 secondes.

Tous les modèles ne fonctionnent pas bien avec l'accélération GPU ; il faut donc les exécuter sur le processeur. Gemma3-1B est resté bloqué en traitement pendant quelques minutes. Toute tentative de modification du format d'accélération a provoqué le plantage de l'application, surtout avec Qwen et Phi-4 mini. Point positif : Phi-4 mini était presque aussi rapide que Gemma pour certaines tâches de mise en forme d'articles lorsqu'il était exécuté sur le processeur.

Un aperçu du futur

Cette application ne fonctionnera pas sur tous les téléphones. Elle nécessite au minimum un processeur doté d'un puissant NPU ou d'une puce accélératrice d'IA, et idéalement 8 Go de RAM ou plus. J'ai effectué mes tests sur le Google Pixel 10 Pro , et il n'a pas été trop chaud. De plus, des connaissances techniques sont nécessaires pour exécuter des modèles d'IA non disponibles dans la galerie LiteRT.

Globalement, l'application AI Edge Gallery de Google ne remplace pas vraiment Gemini ni aucune autre application de chatbot connectée à Internet sur votre téléphone. Du moins, pas encore. Mais c'est un signe avant-coureur de belles choses. Prenons l'exemple de l' application HuggingSnap , qui fonctionne sur un modèle open source, entièrement hors ligne, mais qui permet d'utiliser des fonctionnalités d'intelligence visuelle sur iPhone.

À mesure que les processeurs mobiles deviennent plus compatibles avec l'IA au niveau matériel et que nous disposons de plus en plus de modèles d'IA optimisés pour les tâches sur appareil, des applications comme Google AI Gallery pourraient servir de plateforme pour des tâches d'IA utiles. Une plateforme plus privée, fonctionnant entièrement en ligne et gratuite.