Plus rapide, plus mince, moins cher: la loi de Koomey est-elle la nouvelle loi de Moore?

Les ordinateurs portables, mobiles et tablettes deviennent chaque année moins chers, plus élégants et plus puissants, tandis que la durée de vie de la batterie ne cesse de s'allonger. Vous êtes-vous déjà demandé pourquoi et si les appareils pouvaient continuer à s'améliorer pour toujours?

La réponse à la première question est expliquée par trois lois découvertes par les chercheurs, connues sous le nom de loi de Moore, de mise à l'échelle de Dennard et de loi de Koomey. Lisez la suite pour comprendre l'impact de ces lois sur l'informatique et où elles pourraient nous mener à l'avenir.

Quelle est la loi de Moore?

Si vous êtes un lecteur régulier de MakeUseOf, vous connaissez peut-être la mythique loi de Moore.

Le PDG et co-fondateur d'Intel, Gordon Moore, l'a introduit pour la première fois en 1965.

Il a prédit que le nombre de transistors sur une puce doublerait environ tous les deux ans et deviendrait entre 20 et 30% moins cher à fabriquer chaque année. Le premier processeur d'Intel est sorti en 1971 avec 2250 transistors et une surface de 12 mm 2 . Les processeurs d'aujourd'hui contiennent des centaines de millions de transistors par millimètre carré.

Bien que cela ait commencé comme une prédiction, l'industrie a également adopté la loi de Moore comme feuille de route. Pendant cinq décennies, la prévisibilité de la loi a permis aux entreprises de formuler des stratégies à long terme, sachant que, même si leurs conceptions étaient impossibles au stade de la planification, la loi de Moore livrerait les marchandises au moment opportun.

Cela a eu un effet d'entraînement dans de nombreux domaines, des graphismes toujours améliorés des jeux au nombre croissant de mégapixels dans les appareils photo numériques.

Cependant, la loi a une durée de vie et le rythme des progrès ralentit. Bien que les fabricants de puces continuent de trouver de nouvelles façons de contourner les limites des puces de silicium , Moore lui-même pense que cela ne fonctionnera plus d'ici la fin de cette décennie. Mais ce ne sera pas la première loi de la technologie à disparaître.

Qu'est-il arrivé à la mise à l'échelle Dennard?

En 1974, le chercheur d'IBM Robert Dennard a observé que, à mesure que les transistors rétrécissent, leur consommation d'énergie reste proportionnelle à leur surface.

La mise à l'échelle Dennard, comme on l'appelle, signifiait que la surface du transistor était réduite de 50% tous les 18 mois, entraînant une augmentation de la vitesse d'horloge de 40%, mais avec le même niveau de consommation d'énergie.

En d'autres termes, le nombre de calculs par watt augmenterait à un rythme exponentiel mais fiable, et les transistors deviendraient plus rapides, moins chers et consommeraient moins d'énergie.

À l'ère de la mise à l'échelle Dennard, l'amélioration des performances était un processus prévisible pour les fabricants de puces. Ils ont simplement ajouté plus de transistors aux processeurs et augmenté les fréquences d'horloge.

Cela était également facile à comprendre pour le consommateur: un processeur fonctionnant à 3,0 GHz était plus rapide qu'un processeur fonctionnant à 2,0 GHz, et les processeurs devenaient de plus en plus rapides. En effet, la feuille de route technologique internationale pour les semi-conducteurs (ITRS) autrefois prédite que les fréquences d'horloge atteindraient 12 GHz d'ici 2013 !

Pourtant, aujourd'hui, les meilleurs processeurs du marché ont une fréquence de base de seulement 4,1 GHz. Qu'est-il arrivé?

La fin de la mise à l'échelle Dennard

Les vitesses d'horloge sont restées bloquées dans la boue vers 2004 lorsque les réductions de consommation d'énergie ont cessé de suivre le rythme de rétrécissement des transistors.

Les transistors sont devenus trop petits et le courant électrique a commencé à fuir, provoquant une surchauffe et des températures élevées, entraînant des erreurs et des dommages matériels. C'est l'une des raisons pour lesquelles la puce de votre ordinateur dispose d'un dissipateur thermique . Dennard Scaling avait atteint les limites dictées par les lois de la physique.

Plus de cœurs, plus de problèmes

Avec des clients et des industries entières habitués aux améliorations de vitesse continuelles, les fabricants de puces avaient besoin d'une solution. Ainsi, ils ont commencé à ajouter des cœurs aux processeurs afin de continuer à augmenter les performances.

Cependant, plusieurs cœurs ne sont pas aussi efficaces que d'augmenter simplement la vitesse d'horloge sur les unités à un seul cœur. La plupart des logiciels ne peuvent pas profiter du multitraitement. La mise en cache de la mémoire et la consommation d'énergie sont des goulots d'étranglement supplémentaires.

Le passage aux puces multicœurs a également annoncé l'arrivée du silicium noir.

L'âge sombre du silicium

Il est vite devenu évident que si trop de cœurs sont utilisés simultanément, le courant électrique peut fuir, ressuscitant le problème de surchauffe qui a tué la mise à l'échelle de Dennard sur des puces monocœur.

Le résultat est des processeurs multicœurs qui ne peuvent pas utiliser tous leurs cœurs à la fois. Plus vous ajoutez de cœurs, plus les transistors d'une puce doivent être mis hors tension ou ralentis, dans un processus connu sous le nom de «silicium noir».

Ainsi, bien que la loi de Moore continue de laisser plus de transistors s'adapter sur une puce, le silicium noir ronge l'immobilier du processeur. Par conséquent, ajouter plus de cœurs devient inutile, car vous ne pouvez pas tous les utiliser en même temps.

Soutenir la loi de Moore en utilisant plusieurs cœurs semble être une impasse.

Comment la loi de Moore pourrait continuer

Un remède consiste à améliorer le multitraitement logiciel. Java, C ++ et d'autres langages conçus pour des cœurs uniques céderont la place à des langages comme Go, qui fonctionnent mieux en même temps.

Une autre option consiste à augmenter l'utilisation de FPGA (Field-Programmable Gate Arrays), un type de processeur personnalisable qui peut être reconfiguré pour des tâches spécifiques après l'achat. Par exemple, un FPGA pourrait être optimisé par un client pour gérer la vidéo ou pourrait être spécialement adapté pour exécuter des applications d'intelligence artificielle.

La construction de transistors à partir de différents matériaux, tels que le graphène, est un autre domaine à l'étude pour faire sortir plus de vie de la prédiction de Moore. Et, tout au long de la ligne, l'informatique quantique peut changer complètement la donne.

L'avenir appartient à la loi de Koomey

En 2011, le professeur Jonathan Koomey a montré que l'efficacité énergétique de pointe (l'efficacité d'un processeur fonctionnant à vitesse maximale) faisait écho à la trajectoire de puissance de traitement décrite par la loi de Moore.

La loi de Koomey a observé que, des bêtes à tubes à vide des années 1940 aux ordinateurs portables des années 1990, les calculs par joule d'énergie avaient doublé de manière fiable tous les 1,57 ans. En d'autres termes, la batterie utilisée par une certaine tâche a été divisée par deux tous les 19 mois, ce qui a entraîné une diminution de l'énergie nécessaire pour un calcul spécifique d'un facteur 100 chaque décennie.

Alors que la loi de Moore et la mise à l'échelle de Dennard étaient extrêmement importantes dans un monde d'ordinateurs de bureau et d'ordinateurs portables, la façon dont nous utilisons les processeurs a tellement changé que l'efficacité énergétique promise par la loi de Koomey est probablement plus pertinente pour vous.

Votre vie informatique est probablement partagée entre de nombreux appareils: ordinateurs portables, mobiles, tablettes et gadgets divers. À l'ère de l' informatique proliférante , la durée de vie de la batterie et les performances par watt deviennent plus importantes que d'extraire plus de GHz de nos processeurs à plusieurs cœurs.

De même, avec une plus grande partie de nos traitements sous-traités dans d'énormes centres de données de cloud computing, les implications en termes de coûts énergétiques de la loi de Koomey sont d'un grand intérêt pour les géants de la technologie.

Cependant, depuis 2000, le doublement de l'efficacité énergétique à l'échelle de l'industrie décrit par la loi de Koomey a ralenti en raison de la fin de la mise à l'échelle de Dennard et de la décélération de la loi de Moore. La loi de Koomey livre désormais tous les 2,6 ans et, au cours d'une décennie, l'efficacité énergétique augmente d'un facteur 16 au lieu de 100.

Il est peut-être prématuré de dire que la loi de Koomey suit déjà celle de Dennard et Moore jusqu'au coucher du soleil. En 2020, AMD a signalé que l'efficacité énergétique de son processeur AMD Ryzen 7 4800H avait été multipliée par 31,7 par rapport à ses processeurs de 2014, donnant à la loi de Koomey un coup de pouce rapide et substantiel.

En relation: La nouvelle puce M1 d'Apple change la donne: tout ce que vous devez savoir

Redéfinir l'efficacité pour étendre la loi de Koomey

L'efficacité de la puissance de sortie de crête n'est qu'une façon d'évaluer l'efficacité de calcul et qui est peut-être désormais obsolète.

Cette mesure avait plus de sens au cours des dernières décennies, lorsque les ordinateurs étaient rares, des ressources coûteuses qui avaient tendance à être poussées à leurs limites par les utilisateurs et les applications.

Désormais, la plupart des processeurs fonctionnent à des performances optimales pendant une petite partie de leur vie, lors de l'exécution d'un jeu vidéo, par exemple. D'autres tâches, comme la vérification des messages ou la navigation sur le Web, nécessitent beaucoup moins d'énergie. En tant que tel, l'efficacité énergétique moyenne devient la priorité.

Koomey a calculé cette «efficacité d'utilisation typique» en divisant le nombre d'opérations effectuées par an par l'énergie totale utilisée et soutient qu'elle devrait remplacer la norme «d'efficacité d'utilisation de pointe» utilisée dans sa formulation originale.

Bien que l'analyse ne soit toujours pas publiée, entre 2008 et 2020, l'efficacité d'utilisation typique devrait avoir doublé tous les 1,5 ans environ, ramenant la loi de Koomey au taux optimal observé lorsque la loi de Moore était à son apogée.

Une implication de la loi de Koomey est que les appareils continueront à réduire leur taille et à devenir moins gourmands en énergie. Les processeurs en rétrécissement – mais toujours à haute vitesse – pourraient bientôt être si peu puissants qu'ils pourront tirer leur énergie directement de l'environnement, comme la chaleur de fond, la lumière, le mouvement et d'autres sources.

De tels dispositifs de traitement omniprésents ont le potentiel d'inaugurer le véritable âge de l'Internet des objets (IoT) et de donner à votre smartphone un aspect aussi désuet que les mastodontes à tubes sous vide des années 1940.

Cependant, à mesure que les scientifiques et les ingénieurs découvrent et mettent en œuvre de plus en plus de nouvelles techniques pour optimiser «l'efficacité d'utilisation typique», cette partie de la consommation totale d'énergie d'un ordinateur est susceptible de baisser tellement qu'à des niveaux d'utilisation typiques, seule la puissance de pointe sera assez significatif pour mesurer.

La consommation de pointe deviendra à nouveau le critère d'analyse de l'efficacité énergétique. Dans ce scénario, la loi de Koomey rencontrera éventuellement les mêmes lois de la physique qui ralentissent la loi de Moore.

Ces lois de la physique, qui incluent la deuxième loi de la thermodynamique, signifient que la loi de Koomey prendra fin vers 2048.

L'informatique quantique va tout changer

La bonne nouvelle est que d'ici là, l'informatique quantique devrait être bien développée, avec des transistors basés sur des atomes uniques banals, et une nouvelle génération de chercheurs devra découvrir un tout autre ensemble de lois pour prédire l'avenir de l'informatique.