Les prochains GPU de Nvidia seront conçus en partie par l’IA
Lors de la conférence GTC 2022 , Nvidia a parlé de l'utilisation de l'intelligence artificielle et de l'apprentissage automatique afin de rendre les futures cartes graphiques meilleures que jamais.
Alors que la société choisit de donner la priorité à l'IA et à l'apprentissage automatique (ML), certaines de ces avancées se retrouveront déjà dans les prochains GPU Ada Lovelace de nouvelle génération.
Les grands projets de Nvidia pour l'IA et le ML dans les cartes graphiques de nouvelle génération ont été partagés par Bill Dally , scientifique en chef et vice-président senior de la recherche de la société. Il a parlé des équipes de recherche et développement de Nvidia, de la manière dont elles utilisent l'IA et l'apprentissage automatique (ML) et de ce que cela signifie pour les GPU de nouvelle génération.
Bref, utiliser ces technologies ne peut que signifier du bon pour les cartes graphiques Nvidia. Dally a discuté de quatre sections principales de la conception du GPU, ainsi que de la manière dont l'utilisation de l'IA et du ML peut considérablement accélérer les performances du GPU.
L'objectif est d'augmenter à la fois la vitesse et l'efficacité, et l'exemple de Dally explique comment l'utilisation de l'IA et du ML peut réduire une tâche de conception de GPU standard de trois heures à seulement trois secondes.
Cela est prétendument possible en optimisant jusqu'à quatre processus qui prennent normalement beaucoup de temps et sont très détaillés.
Cela fait référence à la surveillance et à la cartographie des chutes de tension d'alimentation, à l'anticipation des erreurs grâce à la prédiction parasite, à l'automatisation standard de la migration des cellules et à la résolution de divers problèmes de routage. L'utilisation de l'intelligence artificielle et de l'apprentissage automatique peut aider à optimiser tous ces processus, ce qui se traduit par des gains importants dans le produit final.
La cartographie des chutes de tension potentielles aide Nvidia à suivre le flux d'alimentation des cartes graphiques de nouvelle génération. Selon Dally, passer de l'utilisation d'outils standard à des outils d'IA spécialisés peut accélérer considérablement cette tâche, car la nouvelle technologie peut effectuer de telles tâches en quelques secondes seulement.
Dally a déclaré que l'utilisation de l'IA et du ML pour cartographier les chutes de tension peut augmenter la précision jusqu'à 94 % tout en augmentant considérablement la vitesse à laquelle ces tâches sont effectuées.
Le flux de données dans les nouvelles puces est un facteur important dans la performance d'une nouvelle carte graphique. Par conséquent, Nvidia utilise des réseaux de neurones graphiques (GNN) pour identifier les problèmes éventuels dans le flux de données et les résoudre rapidement.
La prédiction parasite grâce à l'utilisation de l'IA est un autre domaine dans lequel Nvidia voit des améliorations, notant une précision accrue, avec des taux d'erreur de simulation tombant en dessous de 10 %.
Nvidia a également réussi à automatiser le processus de migration des cellules standard de la puce, réduisant ainsi de nombreux temps d'arrêt et accélérant l'ensemble de la tâche. Avec cela, 92% de la bibliothèque de cellules a été migrée grâce à l'utilisation d'un outil sans erreur.
L'entreprise prévoit de se concentrer sur l'IA et l'apprentissage automatique à l'avenir, en consacrant cinq de ses laboratoires à la recherche et à la conception de nouvelles solutions dans ces segments. Dally a laissé entendre que nous pourrions voir les premiers résultats de ces nouveaux développements dans les nouvelles conceptions 7 nm et 5 nm de Nvidia, qui incluent les prochains GPU Ada Lovelace. Cela a été signalé pour la première fois par Wccftech .
Ce n'est un secret pour personne que la prochaine génération de cartes graphiques, souvent appelées RTX 4000 , sera intensément puissante ( avec des besoins en alimentation correspondants ). L'utilisation de l'IA et de l'apprentissage automatique pour poursuivre le développement de ces GPU implique que nous pourrions bientôt avoir une véritable centrale électrique entre nos mains.