Un expert révèle les téléphones dont les fans d’IA ont besoin pour pousser Gemini et ChatGPT à leurs limites
L’une des tendances les plus évidentes – et honnêtement, les plus ennuyeuses – au sein de l’industrie des smartphones au cours des deux dernières années a été le discours incessant sur les expériences d’IA. Les guerriers du silicium, en particulier, ont souvent vanté la façon dont leur dernier processeur mobile permettrait des processus d'IA sur l'appareil tels que la génération vidéo.
Nous y sommes déjà, mais pas complètement. Au milieu de tout le battage médiatique avec des astuces d'IA aléatoires pour les utilisateurs de smartphones , le débat n'a pratiquement jamais dépassé les présentations fastueuses sur les nouveaux processeurs et les chatbots en constante évolution.
Ce n’est que lorsque l’ absence du Gemini Nano sur le Google Pixel 8 a fait sourciller que les masses ont pris conscience de l’importance cruciale de la capacité RAM pour l’IA sur les appareils mobiles. Bientôt, Apple a également clairement indiqué qu'il gardaitApple Intelligence verrouillée sur les appareils dotés d'au moins 8 Go de RAM.
Mais l’image du « téléphone IA » ne concerne pas uniquement la capacité de mémoire. La capacité de votre téléphone à effectuer des tâches basées sur l'IA dépend également des optimisations invisibles de la RAM, ainsi que des modules de stockage. Et non, je ne parle pas seulement de capacité.
Les innovations en matière de mémoire se dirigent vers les téléphones IA

Digital Trends s'est entretenu avec Micron, un leader mondial des solutions de mémoire et de stockage, pour décomposer le rôle de la RAM et du stockage pour les processus d'IA sur les smartphones. Les progrès réalisés par Micron devraient être sur votre radar la prochaine fois que vous achèterez un téléphone haut de gamme.
La dernière nouveauté de la société basée dans l'Idaho comprend le stockage mobile G9 NAND UFS 4.1 et les modules RAM 1γ (1-gamma) LPDDR5X pour les smartphones phares. Alors, comment ces solutions de mémoire font-elles exactement avancer la cause de l’IA sur les smartphones, outre l’augmentation de la capacité ?
Commençons par la solution de stockage G9 NAND UFS 4.1. La promesse globale est une consommation d’énergie frugale, une latence plus faible et une bande passante élevée . La norme UFS 4.1 peut atteindre des vitesses de lecture et d'écriture séquentielles maximales de 4 100 Mo/s, ce qui représente un gain de 15 % par rapport à la génération UFS 4.0 tout en réduisant également les chiffres de latence.
Un autre avantage crucial est que les modules de stockage mobiles de nouvelle génération de Micron vont jusqu'à une capacité de 2 To. De plus, Micron a réussi à réduire leur taille, ce qui en fait une solution idéale pour les téléphones pliables et les téléphones minces de nouvelle génération tels que le Samsung Galaxy S25 Edge .

Passant aux progrès de la RAM, Micron a développé ce qu’il appelle des modules RAM 1γ LPDDR5X. Ils offrent une vitesse de pointe de 9 200 MT/s, peuvent contenir 30 % de transistors en plus en raison de leur taille réduite et consomment 20 % d'énergie en moins. Micron a déjà servi la solution RAM 1β (1-beta) légèrement plus lente contenue dans les smartphones de la série Samsung Galaxy S25 .
L’interaction du stockage et de l’IA
Ben Rivera, directeur du marketing produit au sein de l'unité commerciale mobile de Micron, me dit que Micron a apporté quatre améliorations cruciales à ses dernières solutions de stockage pour garantir des opérations d'IA plus rapides sur les appareils mobiles. Ils incluent Zoned UFS, Data Defragmentation, Pinned WriteBooster et Intelligent Latency Tracker.
« Cette fonctionnalité permet au processeur ou à l'hôte d'identifier et d'isoler ou « d'épingler » les données les plus fréquemment utilisées d'un smartphone dans une zone du périphérique de stockage appelée tampon WriteBooster (semblable à un cache) pour permettre un accès rapide et rapide », explique Rivera à propos de la fonctionnalité Pinned WriteBooster.

Chaque modèle d'IA (pensez à Google Gemini ou ChatGPT) qui cherche à effectuer des tâches sur l'appareil a besoin de son propre ensemble de fichiers d'instructions stockés localement sur un appareil mobile. Apple Intelligence, par exemple, a besoin de 7 Go de stockage pour toutes ses manigances.
Pour effectuer une tâche, vous ne pouvez pas confier l'intégralité du package IA à la RAM, car il aurait besoin d'espace pour gérer d'autres tâches critiques telles que appeler ou interagir avec d'autres applications importantes. Pour gérer la contrainte sur le module de stockage Micron, une carte mémoire est créée qui charge uniquement les poids AI nécessaires depuis le stockage et sur la RAM.
Lorsque les ressources se raréfient, vous avez besoin d’un échange et d’une lecture plus rapides des données. Cela garantit que vos tâches d'IA sont exécutées sans affecter la vitesse d'autres tâches importantes. Grâce à Pinned WriteBooster, cet échange de données est accéléré de 30 %, garantissant que les tâches d'IA sont traitées sans aucun retard.
Supposons donc que vous ayez besoin de Gemini pour extraire un PDF à des fins d'analyse . L'échange rapide de mémoire garantit que les poids AI nécessaires sont rapidement transférés du stockage vers le module RAM.
Ensuite, nous avons Data Defrag. Considérez-le comme un organisateur de bureau ou d'almirah, qui garantit que les objets sont soigneusement regroupés dans différentes catégories et placés dans leurs armoires uniques afin qu'il soit facile de les trouver.

Dans le contexte des smartphones, à mesure que davantage de données sont enregistrées sur une période d’utilisation prolongée, elles sont généralement toutes stockées de manière plutôt aléatoire. L'impact net est que lorsque le système embarqué a besoin d'accéder à un certain type de fichiers, il devient plus difficile de tous les trouver, ce qui ralentit le fonctionnement.
Selon Rivera, Data Defrag contribue non seulement au stockage ordonné des données, mais modifie également la voie d'interaction entre le stockage et le contrôleur de périphérique. Ce faisant, il améliore la vitesse de lecture des données d'un impressionnant 60 % , ce qui accélère naturellement toutes sortes d'interactions utilisateur-machine, y compris les flux de travail d'IA.
"Cette fonctionnalité peut aider à accélérer les fonctionnalités de l'IA, par exemple lorsqu'un modèle d'IA génératif, comme celui utilisé pour générer une image à partir d'une invite de texte, est appelé du stockage vers la mémoire, permettant aux données d'être lues plus rapidement du stockage vers la mémoire", a déclaré le dirigeant de Micron à Digital Trends.
Intelligence Latency Tracker est une autre fonctionnalité qui surveille essentiellement les événements de décalage et les facteurs susceptibles de ralentir le rythme habituel de votre téléphone. Il aide ensuite au débogage et à l'optimisation des performances du téléphone pour garantir que les tâches régulières, ainsi que celles de l'IA, ne se heurtent pas à des ralentisseurs.

La dernière amélioration du stockage est Zoned UFS. Ce système garantit que les données de nature E/S similaire sont stockées de manière ordonnée. Ceci est crucial car cela permet au système de localiser plus facilement les fichiers nécessaires, au lieu de perdre du temps à fouiller dans tous les dossiers et répertoires.
« La fonctionnalité ZUFS de Micron permet d'organiser les données de sorte que lorsque le système a besoin de localiser des données spécifiques pour une tâche, le processus soit plus rapide et plus fluide », nous a expliqué Rivera.
Aller au-delà de la capacité de la RAM
Lorsqu'il s'agit de workflows d'IA, vous avez besoin d'une certaine quantité de RAM. Plus il y en a, mieux c'est. Alors qu'Apple a fixé la base de référence à 8 Go pour sa pile Apple Intelligence, les acteurs de l'écosystème Android sont passés à 12 Go comme valeur par défaut. Pourquoi ?
"Les expériences d'IA sont également extrêmement gourmandes en données et donc gourmandes en énergie. Ainsi, pour tenir les promesses de l'IA, la mémoire et le stockage doivent offrir une faible latence et des performances élevées avec une efficacité énergétique maximale", explique Rivera.
Avec sa solution RAM LPDDR5X 1γ (1-gamma) de nouvelle génération pour smartphones, Micron a réussi à réduire la tension de fonctionnement des modules de mémoire. Reste ensuite la question bien trop importante de la performance locale. Rivera affirme que les nouveaux modules de mémoire peuvent bourdonner jusqu'à 9,6 gigabits par seconde, garantissant des performances d'IA de premier ordre.

Micron affirme que les améliorations apportées au processus de lithographie aux ultraviolets extrêmes (EUV) ont ouvert la porte non seulement à des vitesses plus élevées, mais également à une augmentation saine de 20 % de l'efficacité énergétique.
La route vers des expériences d’IA plus privées ?
Les solutions de RAM et de stockage de nouvelle génération de Microns pour smartphones visent non seulement à améliorer les performances de l'IA, mais également le rythme général de vos tâches quotidiennes sur smartphone. J'étais curieux de savoir si les améliorations du stockage mobile UFS 4.1 G9 NAND et de la RAM LPDDR5X 1γ (1-gamma) accéléreraient également les processeurs IA hors ligne.
Les fabricants de smartphones ainsi que les laboratoires d'IA s'orientent de plus en plus vers le traitement local de l'IA . Cela signifie qu'au lieu d'envoyer vos requêtes à un serveur cloud où l'opération est gérée, puis que le résultat est envoyé à votre téléphone via une connexion Internet, l'ensemble du flux de travail est exécuté localement sur votre téléphone.

De la transcription des appels et des notes vocales au traitement de vos documents de recherche complexes dans des fichiers PDF, tout se passe sur votre téléphone et aucune donnée personnelle ne quitte votre appareil. Il s'agit d'une approche plus sûre et plus rapide, mais qui nécessite en même temps des ressources système importantes. Un module de mémoire plus rapide et plus efficace est l'une de ces conditions préalables.
Les solutions de nouvelle génération de Micron peuvent-elles contribuer au traitement local de l'IA ? Ça peut. En fait, cela accélérera également les processus qui nécessitent une connexion cloud, comme la génération de vidéos à l'aide du modèle Veo de Google , qui nécessitent toujours des serveurs de calcul puissants.
"Une application d'IA native exécutée directement sur l'appareil aurait le plus grand trafic de données, car non seulement elle lit les données utilisateur à partir du périphérique de stockage, mais elle effectue également des inférences d'IA sur l'appareil. Dans ce cas, nos fonctionnalités contribueraient à optimiser le flux de données pour les deux", me dit Rivera.
Alors, dans combien de temps pouvez-vous vous attendre à ce que des téléphones équipés des dernières solutions Micron arrivent sur les étagères ? Rivera affirme que tous les principaux fabricants de smartphones adopteront la RAM et les modules de stockage de nouvelle génération de Micron. En ce qui concerne l’arrivée sur le marché, les « modèles phares lancés fin 2025 ou début 2026 » devraient être sur votre radar d’achat.