Bombardement de fin de soirée ! Nvidia lance la puce IA la plus puissante au monde, avec des performances multipliées par 30. Lao Huang est le Steve Jobs de cette époque

NVIDIA vient de lancer la puce IA la plus puissante au monde.

L’IA générative a atteint un point critique.

La conférence GTC 2024, qui a duré deux heures, ressemblait davantage à un concert à grande échelle. Jim Fan, scientifique principal chez NVIDIA, a plaisanté en disant que "Jensen Huang est la nouvelle Taylor Swift".

C'est probablement la position actuelle de Jen-Hsun Huang de Nvidia dans l'industrie de l'IA.

L'année dernière, Huang Renxun a déclaré que le « moment iPhone » de l'IA était arrivé, nous permettant de voir comment la vie quotidienne était réécrite par l'IA, et aujourd'hui, cela montre que la vitesse de ce changement s'accélère de manière folle.

Au cours des 10 dernières années, NVIDIA a fait progresser l'IA environ un million de fois, dépassant de loin la loi de Moore. En d'autres termes, NVIDIA écrit sa propre loi d'itération. De la puissance de calcul des puces à la mise en œuvre de l'IA, de la construction automobile à la logistique médicale, NVIDIA a favorisé le développement de diverses industries tout en réalisant ses propres progrès.

La loi de Moore est morte, mais NVIDIA a donné naissance à une nouvelle loi de Moore.

Hormis les cartes graphiques informatiques, NVIDIA est rarement perçu par nous en temps normal, mais les progrès technologiques de nombreux produits qui nous entourent en sont toujours indissociables.Après avoir lu ce premier résumé du GTC 2024, peut-être pourrez-vous avoir une perception plus évidente du vague d’AIGC.

Un tweet envoyé hier soir par Sam Altman, PDG d'OpenAI, sur X pourrait être une note de bas de page de l'époque :

C'est l'année la plus intéressante de l'histoire de l'humanité, à l'exception de toutes les années à venir.
Cela a été l’année la plus intéressante de l’histoire de l’humanité, mais ce sera l’année la plus ennuyeuse du futur.

La puce IA la plus puissante au monde est née et ses performances explosent

Il s’agit aujourd’hui du GPU le plus avancé en production au monde.

Le protagoniste de la conférence de presse est la puce IA "Blackwell B200". Huang Renxun a déclaré que le nom de cette puce vient du mathématicien, théoricien des jeux et théoricien des probabilités David Blackwell.

Basée sur le processus 4NP de TSMC, la puce informatique sous l'architecture Blackwell possède 104 milliards de transistors, ce qui constitue une autre avancée par rapport aux 80 milliards de transistors de la génération précédente de GPU GH100.

Le Blackwell B200 n'est pas un seul GPU au sens traditionnel du terme. Il est composé de deux GPU Blackwell + une puce CPU Grace, et est connecté via NV-HBI (Nvidia High Bandwidth Interface) à 10 To/s pour garantir que chaque puce peut fonctionner seule. .

Par conséquent, le B200 possède en réalité 208 milliards de transistors et peut fournir jusqu'à 20 pétaflops de puissance de calcul FP4. Les deux GPU combinés à un seul processeur Grace peuvent multiplier par 30 le travail d'inférence LLM (Large Language Model).

Les performances du GB200 seront également grandement améliorées. Dans le benchmark GPT-3 LLM avec 175 milliards de paramètres, les performances du GB200 sont 7 fois celles du H100 et sa vitesse d'entraînement est 4 fois celle du H100.

De plus, il réduit les coûts et la consommation d'énergie de 25 fois par rapport au H100.

Auparavant, même si le processeur AI H100 de NVIDIA était très populaire, la consommation électrique maximale de chaque H100 atteignait 700 watts, dépassant la consommation électrique moyenne des foyers américains ordinaires. Les experts prédisent qu'à mesure qu'un grand nombre de H100 sont déployés, leur puissance totale la consommation sera aussi élevée qu'une grande ville américaine est comparable, voire plus grande, que certains petits pays européens.

Huang Renxun a déclaré que la formation d'un modèle de 1,8 billion de paramètres nécessitait auparavant 8 000 GPU Hopper et 15 mégawatts de puissance. Désormais, 2 000 GPU Blackwell peuvent le faire avec seulement 4 mégawatts de consommation d'énergie.

Les performances puissantes du GPU Blackwell B200 se reflètent également parfaitement en termes de consommation d'énergie. Le B200, qui utilise la dernière technologie d'interconnexion NVLink, prend en charge la même architecture 8GPU et les mêmes commutateurs réseau 400 GbE. Bien que ses performances soient grandement améliorées, il peut atteindre la même consommation d'énergie maximale (700 W) que la génération précédente H100/H200.

Un autre point à noter est la puissance de calcul du FP4. Huang Renxun a déclaré qu'au cours des huit dernières années, la puissance de calcul de l'IA a été multipliée par mille. L'amélioration la plus critique est le moteur Transformer de deuxième génération, qui a considérablement amélioré le calcul, la bande passante et la taille du modèle grâce à la puissance de calcul du FP4.

Par rapport à la puissance de calcul FP8 couramment utilisée dans l'IA, les deux puces de calcul du B200 rendent ses performances 2,5 fois supérieures à celles du H100. La puissance de calcul de chaque puce sous l'architecture Blackwell est 25 % supérieure à celle de la puce Hopper de la génération précédente.

Jim Fan, scientifique principal chez NVIDIA, qualifie le nouveau GPU Blackwell B200 de « nouvelle bête de performance ».

La puissance de calcul du B200 dépasse 1 exaflop au sein d'une seule architecture. Les performances du premier DGX livré à OpenAI par Jen-Hsun Huang sont de 0,17 pétaflops. Les paramètres GPT-4-1,8T peuvent être entraînés sur 2 000 unités Blackwell en 90 jours.

Il n’est pas exagéré de dire qu’une nouvelle loi de Moore était née.

Étant donné que Blackwell est disponible dans plusieurs variantes différentes, Nvidia fournit également des spécifications pour le nœud de serveur complet, avec trois options principales.

Le premier est le système GB200 NVL72 le plus grand et le plus puissant, configuré avec 18 serveurs 1U, chaque serveur étant équipé de deux super puces GB200. Le système fournit 72 GPU B200 avec 1440 Peta FLOPS de performances d'inférence FP4 AI et 720 Peta FLOPS de performances de formation FP8 AI. Il adoptera une solution de refroidissement liquide. Un NVL72 peut gérer 27 billions de modèles de paramètres (GPT-4 Le paramètre maximum ne dépasser 1,7 billion de paramètres).

Une autre spécification est le HGX B200, qui repose sur l'utilisation de huit GPU B200 et d'un processeur x86 dans un seul nœud de serveur. Chaque GPU B200 peut être configuré jusqu'à 1 000 W et le GPU fournit jusqu'à 18 pétaflops de débit FP4, ce qui est plus lent. que le GPU du GB200 10%.

Enfin, NVIDIA lancera également le HGX B100, qui présente les mêmes spécifications générales que le HGX B200, équipé d'un CPU x86 et de 8 GPU B100, mais sera directement compatible avec l'infrastructure HGX H100 existante et permettra le déploiement le plus rapide des GPU Blackwell. , chacun Le TDP du GPU est limité à 700W.

Avant cela, Nvidia est devenue une entreprise de plusieurs milliards de dollars grâce à des puces d'intelligence artificielle telles que H100 et H200, dépassant des sociétés leaders telles qu'Amazon. Les nouveaux GPU Blackwell B200 et la « super puce » GB200 lancés aujourd'hui sont très prometteurs. son avance et même surpasser Apple.

L’ère du logiciel définissant tout arrive

En 2012, un petit groupe de chercheurs a publié un système de reconnaissance d'images révolutionnaire appelé AlexNet, qui à l'époque surpassait de loin les méthodes précédentes en matière de classification des chiens et des chats, ce qui en faisait un leader en matière d'apprentissage profond et de réseaux neuronaux convolutifs. le potentiel de (CNN) dans la reconnaissance d’images.

C'est précisément après avoir vu les opportunités de l'IA que Huang Renxun a décidé de tout miser sur l'IA. Ce qui est intéressant, c'est que dans le passé, il était utilisé pour reconnaître les images générées et générer du texte, mais maintenant, il s'agit de générer des images à travers du texte.

Alors, lorsque la vague de l’IA générative arrivera, que pouvons-nous en faire ? Jen-Hsun Huang a donné quelques réponses standards.

Les modèles météorologiques traditionnels combinés au modèle météorologique Cordiff de NVIDIA peuvent réaliser des prévisions qui explorent des zones de centaines, voire de milliers de kilomètres, offrant une gamme d'impacts tels que les typhons, minimisant ainsi les pertes matérielles. Cordiff sera également ouvert à davantage de pays et de régions à l’avenir.

L’IA générative peut non seulement comprendre les images et l’audio grâce à des capacités numériques, mais peut également utiliser son énorme puissance de calcul pour analyser des milliards de composés afin d’éliminer de nouveaux médicaments.

En tant que marchand d'armes IA, Huang Renxun a également présenté le système NiMS, spécialisé dans l'aide au développement de puces IA. À l'avenir, vous aurez peut-être même l'opportunité de former une super équipe d'IA. Après avoir divisé la tâche en une série de sous-tâches, vous pourrez laisser différentes IA effectuer des tâches telles que la récupération et l'optimisation logicielle.

Les installations, entrepôts et bâtiments d’usine du futur seront définis par logiciel.

Qu’il s’agisse de robots humanoïdes, de voitures autonomes ou de bras manipulateurs, ces robots autonomes nécessitent des systèmes d’exploitation au niveau logiciel. Par exemple, grâce à la combinaison de l'IA et d'Omnverse, NVIDIA a construit un entrepôt de robots couvrant une superficie de 100 000 mètres carrés.

Dans cet environnement simulé physiquement précis, 100 caméras montées au plafond cartographient toutes les activités de l'entrepôt en temps réel à l'aide du logiciel NVIDIA Metropolis et des capacités de planification d'itinéraire des robots mobiles autonomes (AMR).

Ces simulations incluent également des tests en boucle logicielle de l'agent IA pour évaluer et optimiser la capacité du système à s'adapter à l'imprévisibilité du monde réel.

Dans un scénario simulé, l'AMR était en route pour récupérer une palette lorsqu'il a rencontré un incident qui a bloqué son itinéraire prévu. Nvidia Metropolis a ensuite mis à jour et envoyé une carte d'occupation en temps réel au système de contrôle, qui a calculé le nouveau chemin optimal.

Les opérateurs d'entrepôt peuvent également poser des questions au modèle visuel via le langage naturel, et le modèle peut comprendre les détails et les activités et fournir un retour instantané pour améliorer l'efficacité opérationnelle.

Il convient de mentionner qu'Apple Vision Pro est également apparu à cette conférence. Les entreprises peuvent facilement diffuser des descriptions de scènes universelles interactives (OpenUSD) d'applications 3D sur Vision Pro en temps réel via Omniverse Cloud, aidant ainsi les utilisateurs à explorer des mondes virtuels comme jamais auparavant.

La fin de la conférence de presse a été le segment familier des robots. Comme l'a dit Huang Renxun, au moment où il a ouvert les mains et s'est tenu aux côtés d'autres robots humanoïdes, à ce moment-là, "l'intersection de l'infographie, de la physique et de l'intelligence artificielle, ceci. .. Tout commence à ce moment-là.

▲ Petit œuf de Pâques

Il y a dix ans, chez GTC, Jen-Hsun Huang soulignait pour la première fois l'importance de l'apprentissage automatique : alors que beaucoup de gens considéraient encore Nvidia comme un fabricant de « cartes graphiques de jeu », ils étaient déjà à l'avant-garde de la révolution de l'IA.

En 2024, connue comme la première année des applications de l'IA, NVIDIA a déjà utilisé des logiciels et du matériel d'IA pour responsabiliser diverses industries dans de nombreux domaines : grands modèles de langage, IA conversationnelle, edge computing, big data, conduite autonome, robots bioniques…

La découverte de médicaments n'est pas notre expertise, l'informatique l'est ; la construction de voitures n'est pas notre expertise, les ordinateurs IA nécessaires à la construction de voitures le sont. Franchement, il est difficile pour une entreprise d'être bonne dans toutes ces choses, mais nous sommes très bons dans la partie informatique de l'IA.

Comparé au leader d'un secteur donné, NVIDIA ressemble davantage à un « grand homme dans les coulisses ». Tant que l'IA est mentionnée, NVIDIA doit être un sujet incontournable.

Comme l'a dit Huang, Nvidia est déjà une entreprise de plateforme.

C'est le déploiement avancé et la tendance générale du développement historique qui ont permis à Nvidia d'occuper plus de 70 % des ventes du marché des puces d'IA au début de l'ère de l'IA. La valorisation de l'entreprise a également dépassé les 2 000 milliards de dollars américains. il y a longtemps.

C'est peut-être aussi la raison pour laquelle Apple a renoncé à construire des voitures après de nombreuses années de lutte et a investi massivement dans l'IA générative. Qu'il s'agisse d'avantages économiques ou de tendances technologiques, c'est un pari trop digne.

À une époque où l’on s’interroge encore sur l’utilité de « l’IA », NVIDIA a prouvé par des actions que l’IA est devenue un élément indispensable de la nouvelle ère.

Auteurs : Li Chaofan, Xiao Fanbo, Mo Chongyu

# Bienvenue pour suivre le compte public officiel WeChat d'aifaner : aifaner (ID WeChat : ifanr). Un contenu plus passionnant vous sera fourni dès que possible.

Ai Faner | Lien original · Voir les commentaires · Sina Weibo