Le mini-ordinateur Jetson Orin Nano à 200 $ de Nvidia est 80 fois plus rapide que la version précédente

Nvidia a annoncé la sortie prochaine du Jetson Orin Nano, un système sur module (SOM) qui alimentera la prochaine génération d'IA et de robotique d'entrée de gamme, lors de son discours d'ouverture GTC 2022 aujourd'hui.

Nvidia affirme que cette nouvelle version offre une augmentation de 80 fois les performances par rapport au Jetson Nano à 99 $ . La version originale est sortie en 2019 et a été utilisée comme une entrée nue dans le monde de l'IA et de la robotique, en particulier pour les amateurs et les étudiants en STEM. Cette nouvelle version cherche sérieusement à augmenter la puissance.

Processeur robotique Jetson Orin Nano de Nvidia.

Un système sur module (également appelé ordinateur sur module) comprend une seule carte avec un microprocesseur. Il a également de la mémoire et des entrées/sorties (IO), et a généralement une carte porteuse. Remarquez que ce n'est pas la même chose qu'un système sur puce (SOC) – un SOM est basé sur une carte et peut avoir l'espace pour inclure des composants supplémentaires; il pourrait même inclure un SOC. En bref, un SOM est une solution informatique prête à l'emploi, mais ce n'est pas un ordinateur complet.

Avec les détails techniques à l'écart, parlons du dernier développement de Nvidia, le Jetson Orin, qui arrive avec six modules de production basés sur Orin qui ont été conçus pour gérer les applications d'IA et de robotique à un prix abordable. Parmi eux se trouve le Nvidia Jetson Orin Nano.

Bien qu'il s'agisse du plus petit facteur de forme Jetson SOM, le Jetson Orin Nano peut gérer jusqu'à 40 billions d'opérations par seconde (TOPS) de tâches liées à l'IA. La performance atteint de nouveaux sommets avec l'AGX Orin, servant jusqu'à 275 TOPS afin de gérer des machines autonomes avancées.

Le Jetson Orin de Nvidia est livré avec un GPU basé sur Ampère, un processeur basé sur ARM et un support de capteur multimodal. Il est également entièrement compatible avec les modules Orin NX de Nvidia, y compris la prise en charge complète de l'émulation qui permettra aux clients de Nvidia de concevoir autour de plusieurs modules Jetson. Les autres avantages incluent la prise en charge de plusieurs pipelines d'applications AI simultanées, avec des entrées et des sorties rapides.

Les modules Jetson Orin Nano seront disponibles en deux variantes, une avec 8 Go de mémoire et jusqu'à 40 TOPS, et une avec 4 Go de mémoire et jusqu'à 20 TOPS. En termes de consommation électrique, le SOM n'a besoin de presque rien : le premier nécessite entre 7 watts et 15 watts tandis que le second n'a besoin que de 5 watts à 10 watts.

Système sur module Nvidia Jetson Orin Nano.
Nvidia

Nvidia prévoit que les modules seront utilisés par une grande variété de clients, des ingénieurs traitant des applications d'IA de pointe aux développeurs de systèmes d'exploitation robotiques. Le prix bas, à partir de seulement 199 $, rendra cette technologie plus accessible à un plus large éventail d'utilisateurs. Nvidia cite Canon, John Deere, Microsoft Azure et bien d'autres parmi les premiers utilisateurs de Jetson Orin Nano.

"Avec une augmentation considérable des performances pour des millions de développeurs Edge AI et ROS aujourd'hui, Jetson Orin est la plate-forme idéale pour pratiquement tous les types de déploiement robotique imaginables", a déclaré Deepu Talla, vice-président de la division informatique embarquée et edge de Nvidia. .

Nvidia affirme que le Jetson Orin offrira une augmentation de 80 fois les performances par rapport à la génération précédente de Jetson SOM. C'est un énorme pas en avant à un prix raisonnable. Les modules seront disponibles à partir de janvier 2023.