Les 6 meilleurs GPU Nvidia de tous les temps

Nvidia établit la norme si élevée pour ses cartes graphiques de jeu qu'il est en fait difficile de faire la différence entre un GPU Nvidia qui n'est qu'un gagnant et un GPU Nvidia qui est vraiment spécial.

Nvidia a longtemps été l'acteur dominant sur le marché des cartes graphiques, mais l'entreprise a de temps à autre subi de sérieuses pressions de la part de son principal rival AMD, qui a lancé plusieurs de ses propres GPU emblématiques . Cependant, ceux-ci n'ont fait que préparer Nvidia pour un retour majeur, et parfois cela a conduit à une véritable carte qui change la donne.

Il était difficile de choisir quels GPU Nvidia méritaient vraiment d'être appelés les meilleurs de tous les temps, mais j'ai réduit la liste à six cartes qui étaient vraiment importantes et ont marqué l'histoire.

GeForce 256

Le tout premier

La GeForce 256.
Musée VGA

Bien que Nvidia affirme souvent que la GeForce 256 était le premier GPU au monde, cela n'est vrai que si Nvidia est la seule entreprise à pouvoir définir ce qu'est un GPU. Avant GeForce, il y avait la série de cartes graphiques RIVA, et d'autres sociétés fabriquaient également leurs propres cartes graphiques concurrentes. Ce que Nvidia a vraiment inventé, c'est la commercialisation des cartes graphiques en tant que GPU, car en 1999, lorsque le 256 est sorti, des termes comme carte graphique et chipset graphique étaient plus courants.

Nvidia a raison de dire que le 256 était important, cependant. Avant le 256, le processeur jouait un rôle très important dans le rendu graphique, au point où le processeur effectuait directement les étapes de rendu d'un environnement 3D. Cependant, les processeurs n'étaient pas très efficaces pour ce faire, c'est là que le 256 est arrivé avec la transformation matérielle et l'éclairage, déchargeant les deux parties de rendu les plus gourmandes en ressources processeur sur le GPU. C'est l'une des principales raisons pour lesquelles Nvidia affirme qu'il s'agit du premier GPU.

En tant que produit, la GeForce 256 n'était pas exactement légendaire : Anandtech n'était pas très impressionné par son prix pour les performances au moment de sa sortie. Une partie du problème était la mémoire du 256, qui était à débit de données unique, ou SDR. En raison d'autres avancées, le SDR devenait insuffisant pour les GPU de ce niveau de performance. Un double débit de données plus rapide ou DDR ( le même DDR que dans la DDR5 ) lancé juste avant la fin de 1999, qui a finalement répondu aux attentes d'Anandtech en matière de performances , mais l'augmentation du prix de la version DDR était difficile à avaler.

La GeForce 256, première du nom, est certes historique, mais pas parce que c'était un produit étonnant. Le 256 est important car il a inauguré l'ère moderne des GPU. Le marché des cartes graphiques n'a pas toujours été un duopole ; Dans les années 90, plusieurs entreprises se faisaient concurrence, Nvidia n'étant que l'une d'entre elles. Peu de temps après le lancement de la GeForce 256, la plupart des concurrents de Nvidia ont quitté le marché. Les GPU Voodoo 5 de 3dfx n'étaient pas compétitifs et avant sa faillite, nombre de ses technologies ont été achetées par Nvidia ; Matrox a simplement abandonné les GPU de jeu pour se concentrer sur les graphismes professionnels.

À la fin de 2000, la seule autre entreprise graphique de la ville était ATI. Lorsque AMD a acquis ATI en 2006, cela a provoqué la rivalité moderne entre Nvidia et AMD que nous connaissons tous aujourd'hui.

GeForce 8800 GTX

Un bond en avant monumental

La GeForce 8800 GTX.
Musée VGA

Après la GeForce 256, Nvidia et ATI ont tenté de se surpasser avec des GPU plus récents et plus performants. En 2002, cependant, ATI a jeté le gant en lançant sa série Radeon 9000, et avec une taille de matrice de 200 mm au carré, le produit phare Radeon 9800 XT était facilement le plus grand GPU jamais créé. Le produit phare de Nvidia, le GeForce4 Ti 4600 à 100 mm, n'avait aucun espoir de battre même le milieu de gamme 9700 Pro, qui a infligé une défaite écrasante à Nvidia. Faire un GPU n'était plus seulement une question d'architecture, de mémoire ou de pilotes ; pour gagner, Nvidia aurait besoin de faire de gros GPU comme ATI.

Au cours des quatre années suivantes, la taille des GPU phares a continué d'augmenter et, en 2005, les deux sociétés avaient lancé un GPU d'environ 300 mm. Bien que Nvidia ait repris le dessus pendant cette période, ATI n'a jamais été loin derrière et sa série Radeon X1000 était assez compétitive. Un GPU dimensionné à 300 mm était cependant loin de la limite de ce que Nvidia pouvait faire. En 2006, Nvidia a lancé sa série GeForce 8, dirigée par le produit phare 8800 GTX. Son GPU, nom de code G80, mesurait près de 500 mm et son nombre de transistors était presque trois fois supérieur à celui du dernier produit phare GeForce.

La 8800 GTX a fait à ATI ce que la Radeon 9700 Pro et le reste de la série 9000 ont fait à Nvidia, Anandtech décrivant le moment comme "9700 Pro-like". Une seule 8800 GTX était presque deux fois plus rapide que la X1950 XTX haut de gamme d'ATI, sans parler de beaucoup plus efficace. À 599 $, la 8800 GTX était plus chère que ses prédécesseurs, mais son haut niveau de performances et la prise en charge de DirectX 10 compensaient cela.

Mais ce fut surtout la fin de la grande course aux armements GPU qui avait caractérisé le début des années 2000 pour deux raisons principales. Premièrement, 500 mm se rapprochait de la limite de taille d'un GPU, et même aujourd'hui, 500 mm est relativement grand pour un processeur. Même si Nvidia le voulait, faire un GPU plus gros n'était tout simplement pas faisable. Deuxièmement, ATI ne travaillait de toute façon pas sur son propre GPU de 500 mm, donc Nvidia n'était pas pressé de commercialiser un GPU encore plus gros. Nvidia avait essentiellement gagné la course aux armements en dépensant plus qu'ATI.

Cette année-là a également vu l'acquisition d'ATI par AMD, qui a été finalisée juste avant le lancement de la 8800 GTX. Bien qu'ATI ait maintenant le soutien d'AMD, il semblait vraiment que Nvidia avait une telle avance que Radeon ne défierait pas GeForce pendant longtemps, peut-être plus jamais.

GeForce GTX 680

Battre AMD à son propre jeu

La GeForce GTX 680.
Nvidia

La prochaine version historique de Nvidia est arrivée en 2008 avec le lancement de la série GTX 200, en commençant par les GTX 280 et GTX 260. Avec près de 600 mm au carré, la 280 était un digne successeur monstrueux de la 8800 GTX. Pendant ce temps, AMD et ATI ont signalé qu'ils ne lanceraient plus de GPU haut de gamme avec de grandes matrices afin de rivaliser, se concentrant plutôt sur la fabrication de GPU plus petits dans un gambit connu sous le nom de stratégie de petite matrice. Dans son examen, Anandtech a déclaré que "Nvidia se retrouvera tout seul avec des performances optimales dans un avenir prévisible". Il s'est avéré que les quatre années suivantes ont été assez difficiles pour Nvidia.

À partir de la série HD 4000 en 2008, AMD a attaqué Nvidia avec de petits GPU qui avaient une valeur élevée et des niveaux de performances presque phares, et cette dynamique a été maintenue au cours des prochaines générations. La GTX 280 de Nvidia n'était pas assez rentable, puis la série GTX 400 a été retardée et la série 500 était trop chaude et gourmande en énergie.

L'une des faiblesses traditionnelles de Nvidia était son inconvénient en matière de traitement, la façon dont les processeurs sont fabriqués. Nvidia était généralement derrière AMD, mais il avait finalement rattrapé son retard en utilisant le nœud 40 nm pour la série 400. AMD, cependant, voulait reprendre rapidement la tête du processus et a décidé que sa prochaine génération serait sur le nouveau nœud 28 nm, et Nvidia a décidé de faire de même.

AMD a remporté la course à 28 nm avec sa série HD 7000, avec son produit phare HD 7970 replaçant AMD à la première place pour les performances. Cependant, la GTX 680 a été lancée à peine deux mois plus tard, et non seulement elle a battu la 7970 en termes de performances, mais aussi d'efficacité énergétique et même de taille de matrice. Comme l'a dit Anandtech, Nvidia avait "décroché le tiercé technique" et cela a complètement renversé les rôles sur AMD. AMD a encore une fois récupéré la couronne des performances en lançant l'édition HD 7970 GHz plus tard en 2012 (remarquable pour être le premier GPU à 1 GHz), mais avoir l'avance en termes d'efficacité et de performances par millimètre était un bon signe pour Nvidia.

La bataille de va-et-vient entre Nvidia et AMD était assez excitante après la déception des séries GTX 400 et 500, et bien que la 680 ne soit pas une 8800 GTX, elle signalait le retour de Nvidia à être vraiment compétitif face à AMD. Peut-être plus important encore, Nvidia n'était plus alourdi par son désavantage de processus traditionnel, et cela finirait par porter ses fruits.

GeForce GTX 980

La domination de Nvidia commence

La GeForce GTX 980.
Bill Roberson/Tendances numériques

Nvidia s'est retrouvé dans une très bonne position avec la série GTX 600, et c'était grâce au processus 28 nm de TSMC. Dans des circonstances normales, AMD serait simplement passé au processus suivant de TSMC afin de retrouver son avantage traditionnel, mais ce n'était plus une option. TSMC et toutes les autres fonderies du monde (à l'exception d'Intel) ont eu énormément de difficulté à progresser au-delà du nœud 28 nm. De nouvelles technologies étaient nécessaires pour progresser davantage, ce qui signifiait que Nvidia n'avait pas à s'inquiéter qu'AMD reprenne la tête du processus de si tôt.

Après quelques années de va-et-vient et AMD patauge avec des fonds limités, Nvidia a lancé la série GTX 900 en 2014, inaugurée par la GTX 980. Basée sur la nouvelle architecture Maxwell, c'était une amélioration incroyable par rapport aux séries GTX 600 et 700 malgré étant sur le même nœud. Le 980 était entre 30% et 40% plus rapide que le 780 tout en consommant moins d'énergie, et il était même un peu plus rapide que le 780 Ti haut de gamme. Bien sûr, le 980 a également battu le R9 290X, décrochant une fois de plus le trio de performances, d'efficacité énergétique et de taille de matrice. Dans son examen , Anandtech a déclaré que la 980 était "très, très proche de faire à la Radeon 290X ce que la GTX 680 a fait à la Radeon HD 7970".

AMD a été incapable de répondre. Il n'avait pas de GPU de nouvelle génération prêt à être lancé en 2014. En fait, AMD ne travaillait même pas sur une gamme complète de tout nouveaux GPU pour égaliser le score avec Nvidia. AMD prévoyait plutôt de renommer la série Radeon 200 en série Radeon 300 et développerait un nouveau GPU pour servir de produit phare. Tous ces GPU devaient être lancés à la mi-2015, donnant l'ensemble du marché des GPU à Nvidia pendant près d'une année complète. Bien sûr, Nvidia a voulu couper le tapis sous AMD et a préparé un tout nouveau produit phare.

Lancée à la mi-2015, la GTX 980 Ti était environ 30 % plus rapide que la GTX 980, grâce à sa consommation d'énergie nettement plus élevée et à sa plus grande taille de matrice d'un peu plus de 600 mm au carré. Il a battu le tout nouveau R9 Fury X d'AMD un mois avant même son lancement. Bien que le Fury X ne soit pas mauvais, il avait des performances inférieures à celles du 980 Ti, une consommation d'énergie plus élevée et beaucoup moins de VRAM. C'était une démonstration de la longueur d'avance de Nvidia avec la série 900; alors qu'AMD essayait à la hâte de sortir le Fury X, Nvidia aurait pu lancer le 980 Ti à tout moment.

Anandtech l'a assez bien dit : « Le fait qu'ils se rapprochent si près pour être une fois de plus déjoués par Nvidia rend la situation actuelle d'autant plus douloureuse ; c'est une chose de perdre contre Nvidia par les pieds, mais perdre par les pouces ne fait que vous rappeler à quel point ils se sont rapprochés, à quel point ils ont presque bouleversé Nvidia.

Nvidia avait essentiellement un an d'avance sur AMD sur le plan technologique, et même si ce qu'ils avaient fait avec la série GTX 900 était impressionnant, c'était aussi un peu déprimant. Les gens voulaient voir Nvidia et AMD s'affronter comme ils l'avaient fait en 2012 et 2013, mais cela a commencé à ressembler à du passé. Le prochain GPU de Nvidia réaffirmerait certainement ce sentiment.

GeForce GTX 1080

Le GPU sans concurrence sauf lui-même

La GeForce GTX 1080.
Nvidia

En 2015, TSMC avait finalement terminé le processus de 16 nm, qui pouvait atteindre des vitesses d'horloge 40 % supérieures à celles de 28 nm à la même puissance ou la moitié de la puissance de 28 nm à des vitesses d'horloge similaires. Cependant, Nvidia prévoyait de passer à 16 nm en 2016 lorsque le nœud était plus mature. Pendant ce temps, AMD n'avait absolument pas l'intention d'utiliser le 16 nm de TSMC, mais a plutôt décidé de lancer de nouveaux GPU et CPU sur le processus 14 nm de GlobalFoundries. Mais ne vous fiez pas aux noms : le 16 nm de TSMC était et est meilleur que le 14 nm de GlobalFoundries. Après 28 nm, la nomenclature des processus est devenue basée sur le marketing plutôt que sur les mesures scientifiques. Cela signifiait que pour la première fois dans l'histoire du GPU moderne, Nvidia avait l'avantage du processus sur AMD.

La série GTX 10 a été lancée à la mi-2016, basée sur la nouvelle architecture Pascal et le nœud 16 nm de TSMC. Pascal n'était en fait pas très différent de Maxwell, mais le saut de 28 nm à 16 nm a été massif, comme Intel passant de 14 nm sur Skylake à 10 nm sur Alder Lake . La GTX 1080 était le nouveau produit phare, et il est difficile d'exagérer sa rapidité. La GTX 980 était un peu plus rapide que la GTX 780 Ti à sa sortie. En revanche, la GTX 1080 était plus de 30 % plus rapide que la GTX 980 Ti , et pour 50 $ de moins également. La taille de matrice du 1080 était également extrêmement impressionnante, à un peu plus de 300 mm au carré, soit près de la moitié de la taille du 980 Ti.

Avec le 1080 et le reste de la gamme de la série 10, Nvidia a effectivement pris tout le marché des GPU de bureau pour lui-même. La série 300 d'AMD et le Fury X n'étaient tout simplement pas à la hauteur. Au milieu de gamme, AMD a lancé la série RX 400 , mais ce n'étaient que trois GPU bas à milieu de gamme qui étaient un retour à la stratégie des petits die, moins la partie où le produit phare de Nvidia était à une distance frappante comme avec le GTX 280 et le HD 4870. En fait, le 1080 était presque deux fois plus rapide que le RX 480. Le seul GPU AMD pouvait vraiment battre était le GTX 1060 de milieu de gamme, car le GTX 1070 légèrement réduit était juste un peu trop rapide pour perdre face au Fury. X.

AMD a finalement lancé de nouveaux GPU haut de gamme sous la forme de RX Vega, un an après la sortie du 1080. Avec une consommation électrique bien supérieure et le même prix de vente, le vaisseau amiral RX Vega 64 battait d'un poil la GTX 1080 mais n'était pas très compétitif. Cependant, la GTX 1080 n'était plus le fleuron de Nvidia ; avec une taille de matrice relativement petite et une année complète pour se préparer, Nvidia a lancé un tout nouveau produit phare trois mois avant même le lancement de RX Vega; c'était une répétition de la 980 Ti. La nouvelle GTX 1080 Ti était encore plus rapide que la GTX 1080, offrant une nouvelle amélioration de 30 % des performances. Comme l'a dit Anandtech , le 1080 Ti "a encore renforcé la domination de Nvidia sur le marché des cartes vidéo haut de gamme".

L'incapacité d'AMD à fournir un GPU haut de gamme vraiment compétitif signifiait que la seule véritable concurrence du 1080 était la propre GTX 1080 Ti de Nvidia. Avec le 1080 et le 1080 Ti, Nvidia a remporté ce qui est peut-être la victoire la plus complète que nous ayons vue jusqu'à présent dans l'histoire du GPU moderne. Au cours des 4 dernières années, Nvidia n'a cessé d'augmenter son avantage technologique sur AMD, et il était difficile de voir comment Nvidia pourrait jamais perdre.

GeForce RTX 3080

Cours de correction

Carte graphique RTX 3080 sur une table.

Après une si longue et incroyable série de victoires, il était peut-être inévitable que Nvidia succombe à l'orgueil et perde de vue ce qui rendait les grands GPU de Nvidia si formidables. Nvidia n'a pas suivi la série GTX 10 avec un autre GPU avec une augmentation étonnante des performances, mais avec la tristement célèbre série RTX 20. Peut-être dans le but d'éliminer AMD du marché des GPU, Nvidia s'est concentré sur l'introduction du traçage de rayons accéléré par le matériel et de la mise à l'échelle de l'IA au lieu de fournir de meilleures performances en général. En cas de succès, Nvidia pourrait rendre les GPU AMD inutiles jusqu'à ce que la société fabrique enfin des GPU Radeon avec traçage de rayons intégré.

La série RTX 20 était un peu un flop. Lorsque les RTX 2080 et 2080 Ti ont été lancés fin 2018, il n'y avait même pas de jeux prenant en charge le lancer de rayons ou le super échantillonnage d'apprentissage en profondeur (DLSS) . Mais Nvidia a fixé le prix des cartes RTX série 20 comme si ces fonctionnalités faisaient toute la différence. À 699 $, le 2080 avait un prix absurde, et le prix de 1 199 $ du 2080 Ti était encore plus fou. Nvidia n'était même plus en concurrence avec elle-même.

L'amélioration des performances des titres existants a également été extrêmement décevante. le RTX 2080 n'était que 11 % plus rapide que le GTX 1080 , même si au moins le RTX 2080 Ti était environ 30 % plus rapide que le GTX 1080 Ti.

Les deux années suivantes ont été une correction de cap pour Nvidia. La menace d'AMD commençait à devenir assez sérieuse ; la société avait finalement repris l'avantage du processus en passant au 7 nm de TSMC et la société a lancé le RX 5700 XT à la mi-2019 . Nvidia a une fois de plus réussi à l'empêcher en lançant de nouveaux GPU, cette fois la série RTX 20 Super avec un accent sur la valeur , mais le 5700 XT a dû inquiéter Nvidia. Le RTX 2080 Ti était trois fois plus grand mais n'était que 50% plus rapide, ce qui signifie qu'AMD atteignait des performances par millimètre beaucoup plus élevées. Si AMD fabriquait un GPU plus grand, il pourrait être difficile à battre.

Nvidia et AMD prévoyaient une grande confrontation en 2020. Nvidia a reconnu le potentiel d'AMD et a tout mis en œuvre : le nouveau processus 8 nm de Samsung, la nouvelle architecture Ampere et l'accent mis sur les gros GPU. Pendant ce temps, AMD est resté sur le processus 7 nm de TSMC, mais a introduit la nouvelle architecture RDNA 2 et lancerait également un gros GPU, son premier depuis RX Vega en 2017. La dernière fois que les deux sociétés ont lancé de nouveaux produits phares au cours de la même année, c'était en 2013, près d'un une décennie auparavant. Bien que la pandémie menaçait de ruiner les plans des deux sociétés, aucune des deux sociétés n'était disposée à retarder la prochaine génération et à se lancer comme prévu.

Nvidia a lancé le premier avec la série RTX 30, dirigée par le produit phare RTX 3090, mais l'essentiel de l'attention était sur le RTX 3080 car à 699 $, il était beaucoup plus abordable que le 1 499 $ 3090. Au lieu d'être une répétition du RTX 20- série, le 3080 a fourni une augmentation considérable de 30% des performances à 4K par rapport au RTX 2080 Ti, bien que la consommation d'énergie soit un peu élevée. À des résolutions inférieures, le gain de performances du 3080 était un peu moindre, mais comme le 3080 était très performant à 4K, il était facile de l'ignorer. Le 3080 a également bénéficié d'une plus grande variété de jeux prenant en charge le lancer de rayons et DLSS, ce qui donne de la valeur à un GPU Nvidia avec ces fonctionnalités.

Bien sûr, cela n'aurait pas d'importance si le 3080 et le reste de la série RTX 30 ne pouvaient pas résister à la nouvelle série RX 6000 d'AMD, lancée deux mois plus tard. À 649 $, le RX 6800 XT était la réponse d'AMD au RTX 3080. Avec des performances presque identiques dans la plupart des jeux et dans la plupart des résolutions, la bataille entre le 3080 et le 6800 XT rappelait le GTX 680 et le HD 7970. Chaque entreprise avait ses avantages et ses inconvénients, AMD étant leader en termes d'efficacité énergétique et de performances, tandis que Nvidia avait de meilleures performances en matière de lancer de rayons et de prise en charge d'autres fonctionnalités telles que la mise à l'échelle de l'IA.

L'excitation suscitée par un nouvel épisode de la guerre des GPU s'est rapidement éteinte, car il est rapidement apparu que personne ne pouvait acheter RTX 30 ou RX 6000 ou même aucun GPU du tout . La pandémie avait sérieusement réduit l'offre tandis que la crypto augmentait la demande et que les scalpeurs s'emparaient d'autant de GPU qu'ils le pouvaient. Au moment de la rédaction de cet article, la pénurie est pratiquement terminée, mais la plupart des GPU Nvidia se vendent toujours généralement 100 $ ou plus par rapport au PDSF. Heureusement, les GPU haut de gamme comme le RTX 3080 peuvent être trouvés plus proches du PDSF que les cartes bas de gamme de la série 30, ce qui maintient le 3080 une option viable.

Dans l'ensemble, le RTX 3080 était une correction indispensable de Nvidia. Bien que le 3080 ait marqué la fin de la domination quasi totale de Nvidia sur le marché des GPU de bureau, il est difficile de ne pas remercier l'entreprise de ne pas avoir perdu face à AMD. Après tout, la série RX 6000 est sur un bien meilleur processus et AMD a été extrêmement agressif ces dernières années. Et en plus, c'est bien de voir enfin une course serrée entre Nvidia et AMD où les deux parties s'efforcent vraiment de gagner.

Alors, quelle est la prochaine étape ?

Contrairement à AMD, Nvidia garde toujours ses cartes près de sa poitrine et révèle rarement des informations sur les produits à venir. Nous pouvons être assez confiants que la prochaine série RTX 40 sera lancée cette année , mais tout le reste est incertain. L'une des rumeurs les plus intéressantes est que Nvidia utilisera le 5 nm de TSMC pour les GPU RTX 40, et si cela est vrai, cela signifie que Nvidia aura à nouveau la parité avec AMD.

Mais je pense que tant que RTX 40 n'est pas un autre RTX 20 et offre plus d'options bas de gamme et milieu de gamme que RTX 30, Nvidia devrait avoir un produit assez bon de prochaine génération. J'aimerais vraiment qu'il soit si bon qu'il fasse partie de la liste des meilleurs GPU Nvidia de tous les temps, mais nous devrons attendre et voir.