L’avenir des graphismes PC rapides ? Connexion directe aux SSD
Des améliorations de performances sont attendues avec chaque nouvelle génération des meilleures cartes graphiques , mais il semble que Nvidia et IBM visent des changements plus importants.
Les entreprises se sont associées pour travailler sur Big Accelerator Memory (BaM), une technologie qui consiste à connecter directement des cartes graphiques à des SSD ultrarapides. Cela pourrait entraîner une plus grande capacité de mémoire GPU et une bande passante plus rapide tout en limitant l'implication du CPU.
Ce type de technologie a déjà été pensé et travaillé par le passé. L'interface de programmation d'application (API) DirectStorage de Microsoft fonctionne de manière quelque peu similaire, améliorant les transferts de données entre le GPU et le SSD. Cependant, cela repose sur un logiciel externe, ne s'applique qu'aux jeux et ne fonctionne que sur Windows. Les chercheurs de Nvidia et d'IBM travaillent ensemble sur une solution qui supprime le besoin d'une API propriétaire tout en connectant les GPU aux SSD .
La méthode, amusante appelée BaM, a été décrite dans un article rédigé par l'équipe qui l'a conçue. Connecter un GPU directement à un SSD apporterait une amélioration des performances qui pourrait s'avérer viable, en particulier pour les tâches gourmandes en ressources telles que l'apprentissage automatique. En tant que tel, il serait principalement utilisé dans des scénarios professionnels de calcul haute performance (HPC).
La technologie actuellement disponible pour traiter des charges de travail aussi lourdes nécessite que la carte graphique s'appuie sur de grandes quantités de mémoire à usage spécial, telle que HBM2, ou qu'elle dispose d'un accès efficace au stockage SSD. Étant donné que la taille des ensembles de données ne fait que croître, il est important d'optimiser la connexion entre le GPU et le stockage afin de permettre des transferts de données efficaces. C'est là qu'intervient BaM.
"BaM atténue l'amplification du trafic d'E/S en permettant aux threads GPU de lire ou d'écrire de petites quantités de données à la demande, comme déterminé par le calcul", ont déclaré les chercheurs dans leur article, cité pour la première fois par The Register . "L'objectif de BaM est d'étendre la capacité de mémoire GPU et d'améliorer la bande passante d'accès au stockage efficace tout en fournissant des abstractions de haut niveau pour les threads GPU afin de faciliter l'accès à la demande et à grain fin aux structures de données massives dans la hiérarchie de mémoire étendue."
Pour de nombreuses personnes qui ne travaillent pas directement sur ce sujet, les détails peuvent sembler compliqués, mais l'essentiel est que Nvidia veut moins s'appuyer sur le processeur et se connecter directement à la source des données. Cela rendrait à la fois le processus plus efficace et libérerait le processeur, rendant la carte graphique beaucoup plus autonome. Les chercheurs affirment que cette conception serait en mesure de concurrencer les solutions basées sur la DRAM tout en restant moins chère à mettre en œuvre.
Bien que Nvidia et IBM innovent sans aucun doute avec leur technologie BaM, AMD a d'abord travaillé dans ce domaine : en 2016, il a dévoilé la Radeon Pro SSG, un GPU pour station de travail avec SSD M.2 intégrés. Cependant, la Radeon Pro SSG était destinée à être strictement une solution graphique, et Nvidia va encore plus loin, dans le but de gérer des charges de travail de calcul complexes et lourdes.
L'équipe travaillant sur BaM prévoit de publier les détails de leur optimisation logicielle et matérielle en open source, permettant à d'autres de s'appuyer sur leurs découvertes. Il n'y a aucune mention du moment où, le cas échéant, BaM pourrait être implémenté dans les futurs produits Nvidia.