Le 19 avril 1965, Gordon Earle Moore (un des fondateurs d'Intel) énonçait une conjecture qui restera dans les annales et qui a même été élevée au rang de « loi », alors qu'elle ne repose que sur des constatations. 50 ans plus tard, Intel fête cet anniversaire.
Gordon Earle Moore : d'une observation à une, puis plusieurs variantes de sa « loi »
En réalité, parler de la « loi » de Moore est un abus de langage puisqu'il ne s'agit pas d'une propriété physique ou mathématique dont on peut vérifier la véracité, mais d'une conjecture uniquement basée sur des observations. Interrogé sur l'avenir des semi-conducteurs en 1965, Gordon Earle Moore explique à la revue Electronics Magazine qu'il constate que, depuis 1959, la « complexité » des puces double tous les ans, et il suppose donc que cela devrait continuer ainsi dans les prochaines années.
En 1975, il mit à jour sa « loi » en indiquant cette fois que le nombre de transistors dans les processeurs est multiplié par deux tous les deux ans. Un de ses collègues chez Intel, David House, l'adapte pour faire une version maison plus simple et sur laquelle le fondeur peut facilement s'appuyer : la puissance des processeurs double tous les 18 mois. Exit donc le nombre de transistors pour se focaliser sur les performances brutes. On retrouve d'ailleurs cette variante dans d'autres domaines, pour évoquer une situation ou un élément est doublé tous les 18 mois environ.

Au-delà des transistors, la question du coût est sous-jacente
Sur son site, Intel explique que cette « loi » induit une notion importante : « le coût des transistors, qui sont des éléments fondamentaux dans la conception des processeurs à l'ère du numérique, diminue de manière exponentielle alors que les performances augmentent ». Sur ses gammes récentes, la société de Santa Clara propose généralement des puces de nouvelles générations au même prix que les anciennes, mais avec des fonctionnalités supplémentaires et des performances en hausse.
Afin de donner un ordre de grandeur du chemin qui a été parcouru, Intel donne quelques comparaisons : si l'efficacité des moteurs à essence avait suivi la même courbe, un plein suffirait à se déplacer durant toute une vie, le prix d'une maison serait équivalent à celui d'un bonbon, tandis qu'un vol entre New York et la Nouvelle-Zélande ne prendrait pas plus de temps que ce qu'il faudrait pour attacher sa ceinture. Si un smartphone sous Android était construit avec la technologie disponible en 1971 (date du lancement du premier CPU 4004 avec 2 300 transistors), le SoC seul occuperait l'équivalent d'une place de parking pour une voiture.
Quid de la loi de Moore aujourd'hui ?
Aujourd'hui, la miniaturisation des transistors est relativement impressionnante : Intel grave notamment des processeurs en 14 nm (et prochainement en 10 nm). Toujours selon le fondeur, comparativement à un 4004, un Core i5 de dernière génération (14 nm) est 3 500 fois plus performant, pour une efficacité globale multipliée par 90 000, tandis que le coût est divisé par 60 000. Plus que le nombre de transistors, c'est donc la puissance (et le coût) qui est mis en avant par le fondeur, de quoi rejoindre l'énoncé de David House. Pour recouper l'énoncé de la loi de 1975, sachez qu'entre le 4004 et un processeur de la génération Haswell le nombre de transistors a été multiplié par un peu plus de 826 000.
Tout n'est pour autant pas parfait et la « loi de Moore », ou ses dérivés, commence à s'étioler au fil des dernières années à cause de limitations physiques et technologiques que commencent à rencontrer les fabricants de puces. Quoi qu'il en soit, rendez-vous dans 10 ans pour voir ce qu'il en sera de cette fameuse prédiction qui résiste depuis si longtemps.