Les pires GPU de tous les temps : bruyants, décevants, sans inspiration

Quand on regarde certaines des meilleures cartes graphiques d'aujourd'hui, il est facile d'oublier que Nvidia et AMD (et plus récemment, Intel) n'ont pas toujours été les seuls acteurs du jeu GPU. Bien qu'AMD et Nvidia aient commis leur part d'erreurs en matière de GPU, elles ne sont pas les deux seules marques à l'origine de certains des pires GPU de tous les temps.

Jetons un coup d'œil à certaines des cartes graphiques qui vous feront apprécier le paysage GPU actuel, et oui, y compris même les cartes qui sont à la limite des erreurs. (Bonjour, RTX 4060 Ti .) Voici les GPU qui ont fait des choses terriblement, terriblement mal, même si chacun avait quelque chose d'intéressant ou d'innovant à apporter.

Nous nous concentrons ici sur le passé, principalement autour de marques qui ont disparu du devant de la scène. Assurez-vous de consulter nos autres résumés pour des exemples plus modernes :

Intel740

La carte graphique Intel i740 sur une table.
Vintage3D

Arc Alchemist n'était pas la première aventure d'Intel dans le domaine des GPU discrets, et le DG1 non plus. Bien avant l'un de ces projets, l'Intel i740 est apparu, et c'est un GPU qui rend toutes les autres tentatives d'Intel encore meilleures.

Entre le milieu et la fin des années 1990, Intel a pris le train de l’accélération graphique 3D. Le marché en plein essor des jeux sur PC, avec des titres comme Doom, Quake et Tomb Raider , commençait vraiment à mettre en évidence l'importance des graphismes 3D à l'avenir. C’est peut-être ce qui a incité Intel à s’éloigner de son domaine principal – qui, même à l’époque, fabriquait certains des meilleurs processeurs – et à essayer de créer des GPU discrets.

L'Intel740, également connu sous le nom de i740, est sorti début 1998. Il s'agissait d'un GPU 350 nm qui s'appuyait sur l'interface AGP, désormais oubliée depuis longtemps, qui semblait prometteuse par rapport au PCI (attention à la différence – pas au PCIe) à l'époque. En fait, il a été l’un des premiers GPU à utiliser l’AGP, ce qui a ensuite joué un rôle dans sa chute.

Il cadencé à une modeste fréquence de 66 MHz et disposait de 2 à 8 Mo de VRAM sur un bus 64 bits. Ces spécifications semblent risibles si on les juge par rapport aux normes actuelles, et même à l'époque, elles étaient un peu erronées. La quantité de VRAM était inférieure à celle que certains concurrents d'Intel étaient en mesure de fournir, mais l'interface AGP était censée aider ; malheureusement, cela n'a servi qu'à réduire les performances du processeur en remplissant la RAM principale de textures et en occupant la capacité du processeur. Le GPU a également été affecté par ce processus alambiqué.

Malgré beaucoup de battage médiatique, l'Intel740 est tombé à plat. Bien qu'il ait pu être destiné à devenir une solution pour le rendu de graphiques 3D, il n'a parfois pas réussi à les gérer correctement, produisant à la place des artefacts et une faible clarté visuelle. Les rumeurs de ses mauvaises performances n’ont pas tardé à se répandre. Bien qu'Intel ait principalement ciblé les fabricants de PC pré-construits (OEM) avec ce GPU, il n'a fallu que peu de temps pour être oublié, car les amateurs de jeux savaient qu'il fallait rester à l'écart du i740.

Le marché graphique était alors très volatil et évoluait rapidement, donc un échec comme celui-là a dû être un revers pour Intel. Cependant, après quelques tentatives supplémentaires pour créer des GPU discrets, il est passé aux graphiques intégrés, où il a connu du succès pour les années à venir.

S3 ViRGE

La carte graphique S3 ViRGE.
Rétronn

Avant de nous installer dans le paysage actuel d’AMD, Nvidia et Intel, le marché des GPU comptait quelques noms supplémentaires en lice pour attirer l’attention. L’une de ces sociétés était S3, qui est devenue célèbre très rapidement entre le début et le milieu des années 1990. Tout comme Intel, S3 a capitalisé sur le boom des graphiques 3D et a conçu des puces graphiques offrant une accélération 3D. En fin de compte, le S3 ViRGE est devenu connu comme un « décélérateur 3D » et est désormais considéré comme l’un des pires GPU de tous les temps.

Lors de son lancement, le S3 ViRGE a été commercialisé comme « le premier accélérateur graphique 3D intégré au monde ». Il s’agissait en effet de l’un des premiers chipsets de ce type conçus pour le marché grand public. Il prenait en charge environ 2 Mo à 4 Mo de SDRAM sur un bus 64 bits et avait une horloge centrale de 55 MHz. Il pouvait restituer des graphiques 2D et 3D et offrait des résolutions allant jusqu'à 800 x 600 en 3D. Bien qu'il ait fait un travail assez décent en 2D, il n'a pas réussi à impressionner en 3D – et c'était tout l'objectif et le plan marketing de la puce.

Face à un rendu 3D relativement simple, le S3 ViRGE était en fait un peu plus rapide que la meilleure solution basée sur CPU de l'époque. Cependant, lorsqu'il s'agissait du rendu de plus en plus complexe requis pour les jeux 3D, y compris des tâches telles que le filtrage bilinéaire, le GPU s'est avéré plus lent que le rendu logiciel (ce qui impliquait essentiellement l'utilisation du CPU à des fins graphiques). C'est ce qui lui a valu le surnom moqueur de « premier décélérateur 3D au monde », car les utilisateurs préféreraient désactiver l'accélération 3D et simplement utiliser le processeur à la place.

La nouvelle des mauvaises performances 3D de la puce s'est rapidement répandue, et le passage rapide de la 2D à la 3D sur le marché des jeux n'a pas aidé. S3 a tenté de corriger ce qui n'allait pas avec les futurs GPU, tels que ViRGE/DX et ViRGE/GX, mais il avait des concurrents assez féroces chez Nvidia, ATI (plus tard AMD) et 3dfx. En fin de compte, S3 n'a pas pu rivaliser sur le marché en pleine croissance de la 3D, même s'il a continué à fabriquer des puces pour le segment milieu de gamme.

Nvidia GeForceFX 5800

GPU GeForce FX 5800 de Nvidia.
Anandtech

Découvrez la GeForce FX 5800 Ultra, le premier (et le seul ?) GPU sur lequel Nvidia a réalisé une parodie de vidéo. Oui, Nvidia lui-même a réalisé une vidéo de deux minutes se moquant de ce GPU, mais ce n'est qu'après sa sortie sur le marché et qu'il est devenu connu sous le nom de « Dustbuster » des cartes graphiques.

Nvidia avait de grands projets pour la série FX. Il s’agissait d’un grand saut vers l’ère DirectX 9, qui représentait une transition importante pour les jeux sur PC. Ce GPU est arrivé à une époque où Nvidia était déjà leader du marché, même si ATI Technologies était juste derrière avec la gamme de cartes graphiques Radeon. L'échec de Nvidia avec la série FX a été un revers inattendu, mais comme nous le savons maintenant, la domination d'ATI/AMD n'a pas duré longtemps et Nvidia contrôle désormais la majorité du marché, peut-être au détriment des joueurs sur PC .

Le FX 5800 Ultra a été fabriqué selon un processus de 130 nm et cadencé à 500 MHz (horloge et mémoire, pour un 1 GHz effectif). Il utilisait 128 Mo de mémoire GDDR2 sur une interface 128 bits. Nvidia l'a doté de l'architecture CineFX pour améliorer le rendu cinématographique et l'a construit avec le plan de le rendre efficace pour le traitement des shaders DirectX 9.

Sur le papier, ça sonnait bien. En réalité, ce n’était décidément pas le cas. Il fonctionnait assez bien dans les jeux DirectX 8 mais rencontrait des difficultés avec certains titres DX9, et la Radeon 9700 Pro d'ATI était une alternative séduisante qui ne présentait pas les mêmes problèmes. Cependant, le principal problème du FX 5800 Ultra était le bruit.

Nvidia a implémenté une solution de refroidissement innovante dans ce GPU appelée FX Flow. Cela visait à maintenir le GPU, qui chauffait normalement, à une température confortable, même pendant les jeux intensifs. Cependant, le petit ventilateur qui alimentait l’engin devait fonctionner à une vitesse très élevée pour pouvoir suivre le rythme. Le résultat a été l’un des bruits les plus forts qu’un GPU grand public ait jamais produit.

Nvidia n’est pas resté longtemps fidèle à ce modèle de refroidissement. La plupart de ses partenaires sont revenus aux méthodes de refroidissement traditionnelles pour les FX 5900 XT et 5900 Ultra, et nous n'avons plus rien vu de tel depuis.

Ruée vers le vaudou 3dfx

Carte graphique Voodoo Rush.

3dfx était autrefois un redoutable rival de Nvidia et d'ATI. Il est devenu célèbre au début des années 1990 et, comme plusieurs autres fabricants de GPU de l'époque, il a surfé sur la vague des graphiques 3D jusqu'à ce qu'il s'écrase et brûle. Nvidia a finalement racheté la plupart de ses actifs en 2000. Même si le déclin de l'entreprise ne peut être attribué à une seule carte, elle proposait des solutions intéressantes qui ont fini par échouer sur le marché grand public, et le GPU 3dfx Voodoo Rush est peut-être l'un des plus performants. exemples reconnus.

Le chipset Voodoo Rush faisait suite au produit initial de la société, le Voodoo1. Il a intégré l'accélération 2D et 3D dans une seule carte, associant les capacités 3D des graphiques Voodoo avec un noyau 2D d'autres fabricants. C'est vrai, je parle ici d'une configuration à double puce.

Le GPU servait 6 Mo de DRAM EDO, une vitesse d'horloge de base maximale d'environ 50 MHz et la prise en charge de éléments tels que l'API Glide, Direct3D et OpenGL, ainsi qu'une résolution maximale de 800 x 600 dans les applications 3D. Cela semblait prometteur sur le papier, mais une fois le produit réel sorti et que les gens ont pu le tester, plusieurs problèmes sont apparus à travers le battage médiatique.

D'une part, il s'agissait d'un GPU massif avec une tendance à chauffer, mais le principal problème résidait dans l'architecture et dans la façon dont tout cela s'ajoutait à des performances souvent pires que celles du Voodoo 1 dans les jeux 3D. Les problèmes de compatibilité et les artefacts visuels n'étaient pas rares, et une fois ces problèmes révélés, les critiques et les utilisateurs ont tourné le dos à ce GPU.

La mauvaise réception du Voodoo Rush n’est cependant pas ce qui a finalement scellé le sort de 3dfx. Elle a ensuite produit davantage de GPU, notamment le (également controversé) Voodoo 5 6000, livré avec son propre adaptateur secteur. Espérons que Nvidia ne propose pas une idée similaire pour l'un de ses produits phares géants de nouvelle génération , car le résultat final était assez amusant à regarder .