Nvidia dévoile le tout premier processeur et GPU Hopper au GTC 2022

Le PDG de Nvidia, Jensen Huang, a lancé la Graphics Technology Conference (GTC) de la société avec un discours d'ouverture plein d'annonces. Les principales révélations incluent le tout premier processeur discret de Nvidia, nommé Grace, ainsi que son architecture Hopper de nouvelle génération, qui arrivera plus tard en 2022.

Le Grace CPU Superchip est le premier processeur discret de Nvidia, mais il ne sera pas au cœur de votre prochain PC de jeu . Nvidia a annoncé le Grace CPU en 2021 , mais cette Superchip, comme l'appelle Nvidia, est quelque chose de nouveau. Il associe deux processeurs Grace, similaires au M1 Ultra d'Apple , connectés via la technologie NVLink de Nvidia.

Un rendu de Grace Superchip de Nvidia.

Contrairement au M1 Ultra, cependant, le Grace Superchip n'est pas conçu pour des performances générales. Le GPU à 144 cœurs est conçu pour l'IA, la science des données et les applications nécessitant beaucoup de mémoire. Le processeur utilise toujours des cœurs ARM, malgré l' offre abandonnée de 40 milliards de dollars de Nvidia pour acheter la société.

En plus de la Grace Superchip, Nvidia a présenté son architecture Hopper de nouvelle génération. Ce n'est pas l'architecture qui alimente le RTX 4080, selon les spéculations. Au lieu de cela, il est conçu pour les accélérateurs de centre de données de Nvidia. Nvidia lance l'architecture du GPU H100, qui remplacera le précédent A100 de Nvidia .

Nvidia appelle le H100 la "puce la plus avancée au monde". Il est construit à l'aide du processus de fabrication N4 du fabricant de puces TSMC, contenant 80 milliards de transistors. Comme si cela ne suffisait pas, c'est aussi le premier GPU à prendre en charge la mémoire PCIe 5.0 et HBM3. Nvidia affirme que seulement 20 GPU H100 peuvent "soutenir l'équivalent du trafic Internet mondial", montrant la puissance de PCIe 5.0 et HBM3.

Les clients pourront accéder au GPU via les serveurs DGX de quatrième génération de Nvidia, qui combinent huit GPU H100 et 640 Go de mémoire HBM3. Ces machines, selon Nvidia, fournissent 32 pétaFLOP de performances d'IA, soit six fois plus que l'A100 de dernière génération.

Si le DGX n'offre pas assez de puissance, Nvidia propose également son DGX H100 SuperPod. Cela s'appuie sur la location par Nvidia de sesaccélérateurs SuperPod l'année dernière , permettant à ceux qui n'ont pas le budget pour des centres de données massifs d'exploiter la puissance de l'IA. Cette machine combine 32 systèmes DGX H100, offrant un énorme 20 To de mémoire HBM3 et 1 exoFLOP de performances AI.

Famille de GPU Nvidia Hopper.

Nvidia lance la nouvelle architecture avec son propre supercalculateur EOS, qui comprend 18 SuperPods DGX H100 pour un total de 576 GPU H100. L'activation de ce système est la quatrième génération de NVLink de Nvidia, qui fournit une interconnexion à large bande passante entre des clusters massifs de GPU.

À mesure que le nombre de GPU augmente, Nvidia a montré que l'A100 de dernière génération stagnerait. Hopper et NVLink de quatrième génération n'ont pas ce problème, selon la société. Alors que le nombre de GPU atteint des milliers, Nvidia affirme que les systèmes basés sur H100 peuvent fournir une formation à l'IA jusqu'à neuf fois plus rapide que les systèmes basés sur A100.

Cette architecture de nouvelle génération offre des "avantages de performances révolutionnaires", selon Nvidia. Bien que passionnant pour le monde de l'IA et du calcul haute performance, nous attendons toujours avec impatience les annonces concernant le RTX 4080 de nouvelle génération de Nvidia, qui devrait être lancé plus tard cette année.