Cette technologie de mémoire révolutionnaire pourrait rendre l’IA 1 000 fois plus efficace

Nous savons tous que l’IA a un problème de puissance. Dans l’ensemble, l’utilisation mondiale de l’IA a déjà consommé autant d’énergie que l’ensemble de la nation de Chypre en 2021.

Mais des chercheurs en ingénierie de l’Université du Minnesota Twin Cities ont développé et démontré une nouvelle conception de mémoire informatique qui pourrait réduire considérablement la quantité d’énergie consommée par les systèmes d’IA pour aider à atténuer ce problème. Leurs recherches ont été récemment publiées dans la revue Nature Unconventional Computing.

La plupart des systèmes informatiques modernes reposent sur ce que l'on appelle l'architecture de Von Neumann, dans laquelle les sous-systèmes logique et mémoire sont séparés. Pendant les opérations normales, les données font la navette entre les modules de mémoire et les processeurs. C’est la base de base du fonctionnement des ordinateurs modernes.

Cependant, comme les vitesses de traitement dépassent rapidement la technologie d'E/S , ce transfert de données devient un goulot d'étranglement à la fois en termes de vitesse de traitement (également connu sous le nom de problème de mur de mémoire ) et de consommation d'énergie. Comme les chercheurs l’ont souligné, le simple fait de mélanger les données consomme jusqu’à 200 fois plus d’énergie que les calculs eux-mêmes.

Les développeurs ont cherché à contourner ce problème en rapprochant physiquement la logique et la mémoire grâce à des conceptions informatiques « en mémoire proche » et « en mémoire ». Les systèmes de quasi-mémoire empilent la logique et la mémoire les unes sur les autres dans un tableau 3D, ils sont en couches de style PB&J, tandis que les systèmes en mémoire intercalent des clusters de logique dans toute la mémoire sur une seule puce, plus comme un beurre de cacahuète et sandwich à la banane.

La solution de l'équipe de recherche de Twin Cities est une conception nouvelle, entièrement numérique, en mémoire, baptisée mémoire computationnelle à accès aléatoire (CRAM), dans laquelle « la logique est exécutée de manière native par les cellules de mémoire ; les données pour les opérations logiques ne doivent jamais quitter la mémoire », selon les chercheurs. L’équipe y est parvenue en intégrant un substrat de calcul spintronique reconfigurable directement dans la cellule mémoire, une avancée qui, selon les chercheurs, pourrait réduire la consommation d’énergie d’une opération d’IA d’un « ordre de 1 000 fois supérieur à une solution de pointe ».

Et cette amélioration de 1 000 fois pourrait bien être la référence. L’équipe de recherche a testé la CRAM sur une tâche de classificateur de chiffres manuscrits du MNIST et a constaté qu’elle était « respectivement 2 500 fois et 1 700 fois inférieure en énergie et en temps, par rapport à un système de traitement de quasi-mémoire au niveau du nœud technologique 16 nm ».

L’industrie émergente de l’IA est déjà confrontée à d’importants problèmes de ressources. Les GPU toujours plus rapides, toujours plus puissants et performants qui sous-tendent les logiciels d’IA sont extrêmement gourmands en énergie. Le dernier Blackwell B200 haut de gamme de NVIDIA consomme jusqu'à 1 200 W , par exemple, et génère tellement de chaleur perdue qu'il nécessite un refroidissement liquide, une autre opération gourmande en ressources.

Avec des hyperscalers comme Google, Amazon et Microsoft qui se démènent tous pour construire l'infrastructure physique nécessaire pour alimenter la révolution imminente de l'IA – c'est-à-dire des centres de données de la taille d'un gigawatt , certains avec leurs propres centrales nucléaires – créant des ressources de calcul et de mémoire plus économes en énergie. deviendra de plus en plus critique pour la viabilité à long terme de la technologie de l’IA.